Procuramos por um profissional com sólida experiência em projetos de dados na nuvem, capaz de desenhar e manter pipelines escaláveis.
Conhecimentos técnicos:
* AWS Glue: criação e manutenção de jobs, crawlers, catálogos de dados e integração com outros serviços AWS.
* Apache Airflow: orquestração de workflows ETL/ELT, agendamento e monitoramento de pipelines.
* Python: desenvolvimento de scripts e automações para tratamento e transformação de dados.
* Spark: processamento distribuído de grandes volumes de dados, otimização de jobs e tuning de performance.
* Athena: criação e otimização de consultas SQL serverless, integração com S3 e Data Catalog.
* S3: modelagem de buckets, organização de dados brutos e tratados, versionamento e políticas de acesso.
* Lambda: funções serverless para processamento em tempo real, automações e integrações.
* EMR: administração e execução de clusters Hadoop/Spark, configuração de ambientes e pipelines de alto desempenho.
* Git e CI/CD: versionamento de código, integração e entrega contínua, configuração de pipelines de deploy.
Habilidades complementares:
* Modelagem de dados: entendimento de estruturas dimensionais, relacionais e não relacionais, normalização/desnormalização e boas práticas para ambientes analíticos.
* ETL/ELT: levantamento de requisitos, desenho e implementação de fluxos de extração, transformação e carga, com foco em qualidade e governança.
* Boas práticas de segurança e compliance no ecossistema AWS (IAM, KMS, políticas de acesso, criptografia).