Mission:
* Garantir estabilidade, escalabilidade e governança das plataformas em nuvem.
* Liderar a evolução da arquitetura de dados e apoiar o time na construção de uma operação previsível, automatizada e de alta qualidade.
Requisitos:
* A experiência em arquitetura e engenharia de dados é fundamental, incluindo conhecimento em Airflow, Airbyte, Spark/PySpark, EMR, EKS/Kubernetes, S3/Lake, Redshift, BigQuery e DataFlow.
* A capacidade de liderar pipelines de dados de alta criticidade, com foco em modularização, automação e confiabilidade.
* O conhecimento em boas práticas de versionamento e desenvolvimento, como Git, ambientes DEV/STG/PRD, CI/CD, testes e Data Quality, é crucial.
* A vivência em governança de Data Lakes e Data Warehouses garante reutilização de camadas e evita duplicidades.
* A capacidade de traduzir regras de negócio complexas em soluções técnicas claras, robustas e escaláveis.
* A experiência atuando como referência técnica, incluindo mentoria e apoio a times de engenharia.
* A ingestão e orquestração de dados, incluindo Airflow, Airbyte, Lambdas, DataFlow, Scheduled Queries.
* O processamento distribuído de dados, incluindo PySpark (forte), Spark SQL, EMR, Dataproc, DLT (desejável).
* O uso de cloud para armazenamento e processamento de dados, incluindo AWS (EKS, EMR, Lambda, S3, Redshift) e GCP (BigQuery, DataFlow, Composer).
* A infraestrutura como código & DevOps, incluindo Terraform, Docker, Kubernetes, CI/CD.
* A gestão de qualidade e linhagem de dados, incluindo Great Expectations, DataHub ou similares.
* A governança e segurança de dados, incluindo IAM, VPN, segregação de ambientes.
Diferenciais:
* A experiência em modernizar arquiteturas legadas.
* A vivência em ambientes multicloud.
* A forte atuação com DataOps e automação avançada.
* A experiência prévia como Tech Lead ou referência técnica em times de dados.