Desenvolva a sua carreira como Engenheiro de Dados com uma empresa inovadora e contribua para o crescimento das plataformas AWS e GCP.
Missão:
* Garantir estabilidade, escalabilidade e governança das plataformas (AWS + GCP)
Requisitos:
1. Domínio em arquitetura e engenharia de dados, incluindo: Airflow, Airbyte, Spark/PySpark, EMR, EKS/Kubernetes, S3/Lake, Redshift, BigQuery e DataFlow
2. Experiência em pipelines de dados de alta criticidade, com foco em modularização, automação e confiabilidade
3. Forte conhecimento em práticas de desenvolvimento ágil: Git, ambientes DEV/STG/PRD, CI/CD, testes e qualidade de dados
4. Vivência na gestão de Data Lakes e Data Warehouses, garantindo reutilização de camadas e evitando duplicidades
5. Capacidade de traduzir requisitos complexos em soluções técnicas claras, robustas e escaláveis
6. Experiência em atuar como referência técnica, incluindo mentoria e apoio a times de engenharia
7. Integração e Orquestração: Airflow, Airbyte, Lambdas, DataFlow, Consultas Agendadas
8. Processamento Distribuído: PySpark (forte), Spark SQL, EMR, Dataproc, DLT (desejável)
9. Nuvem: AWS (EKS, EMR, Lambda, S3, Redshift), GCP (BigQuery, DataFlow, Composer)
10. Infraestrutura como Código & DevOps: Terraform, Docker, Kubernetes, CI/CD
11. Qualidade de Dados & Linhagem: Great Expectations, DataHub ou similares
12. Governança & Segurança: IAM, VPN, segregação de ambientes