 
        
        Procuramos um profissional experiente em projetos de dados no ecossistema AWS que desenhe pipelines escaláveis e eficientes desde a ingestão até a disponibilização das informações.
Certificações técnicas:
 * AWS Glue: criação e manutenção de jobs, crawlers, catálogos de dados e integração com outros serviços AWS.
 * Apache Airflow: orquestração de workflows ETL/ELT, agendamento e monitoramento de pipelines.
 * Python: desenvolvimento de scripts e automações para tratamento e transformação de dados.
 * Pyspark: processamento distribuído de grandes volumes de dados, otimização de jobs e tuning de performance.
 * Athena: criação e otimização de consultas SQL serverless, integração com S3 e Glue Data Catalog.
 * S3: modelagem de buckets, organização de dados brutos e tratados, versionamento e políticas de acesso.
 * Lambda: funções serverless para processamento em tempo real, automações e integrações.
 * EMR: administração e execução de clusters Hadoop/Spark, configuração de ambientes e pipelines de alto desempenho.
 * Git e CI/CD: versionamento de código, integração e entrega contínua, configuração de pipelines de deploy.
Habilidades complementares:
 * Modelagem de dados: entendimento de estruturas dimensionais, relacionais e não relacionais, normalização/desnormalização e boas práticas para ambientes analíticos.
 * ETL/ELT: levantamento de requisitos, desenho e implementação de fluxos de extração, transformação e carga, com foco em qualidade e governança.
 * Boas práticas de segurança e compliance no ecossistema AWS (IAM, KMS, políticas de acesso, criptografia).
 * Integração de dados provenientes de múltiplas fontes.
 * Monitoramento e observabilidade de pipelines.
 * Documentação técnica clara e manutenção de repositórios de conhecimento.
Diferenciais:
 * Conhecimento básico/intermediário de espanhol.
 * Experiência com ambientes multi-conta e multi-região na AWS.
 * Familiaridade com infraestrutura como código.
 * Otimização de custos em workloads de dados na nuvem.