Buscamos um profissional experiente em projetos de dados que saiba trabalhar com o ecossistema AWS e criar pipelines escaláveis e eficientes.
Requisitos técnicos:
* AWS Glue – Criação e manutenção de jobs, crawlers, catálogos de dados
* Apache Airflow – Orquestração de workflows ETL/ELT, agendamento e monitoramento de pipelines
* Python – Desenvolvimento de scripts e automações para tratamento e transformação de dados
* PySpark – Processamento distribuído de grandes volumes de dados
* AWS Lambda – Funções serverless para processamento em tempo real
Habilidades complementares:
* Modelagem de dados – Entendimento de estruturas dimensionais, relacionais e não relacionais
* ETL/ELT – Levantamento de requisitos e desenho de fluxos de extração, transformação e carga
* Boas práticas de segurança no ecossistema AWS (IAM, KMS)
* Integração de dados provenientes de múltiplas fontes
Diferenciais:
* Experiência com ambientes multi-conta na AWS
* Familiaridade com infraestrutura como código (CloudFormation, Terraform)
* Otimização de custos em workloads de dados na nuvem