O Dia a Dia Da OportunidadeProjetar, implementar e evoluir a arquitetura da plataforma de dados, assegurando escalabilidade, segurança e desempenho.Construir e manter pipelines de ingestão, transformação e entrega de dados (ETL/ELT), garantindo eficiência e qualidade.Aplicar boas práticas de versionamento de código (ex: Git) e automação com CI/CD para deploys e testes de pipelines.Implementar políticas de acesso, segurança e conformidade com regulamentações como LGPD.Estabelecer monitoramento, alertas e processos de observabilidade para garantir a operação contínua dos fluxos de dados.Trabalhar com cientistas de dados, analistas e áreas de negócio para entender demandas e entregar soluções.- Documentar sistemas e promover boas práticas de engenharia de dados e DataOps dentro da organização.O que esperamos que você tenha para concorrer a oportunidade:Graduação - Completa (obrigatório) em Ciência da Computação, Engenharia da Computação, Sistemas de Informação, Estatística, Matemática ou áreas correlatas.Conhecimentos EspecíficosPython e SQL avançado (essenciais)Github - versionamento de códigosExperiência com APIs de dadosELT/ETL avançado com ferramentas : dbt, Airflow, Airbyte, DW, Datalake- Conhecimento em MINIO será um diferencialDesign de pipelines escaláveis e distribuídos para ingestão, transformação e processamento em loteComunicação clara e habilidade para trabalho em equipe.Boa capacidade analítica e de organizaçãoHorário de trabalho: De segunda a sexta-feira das 08h às 17:48h (Híbrido: 2x Office)Local de trabalho: Av. Magalhães de Castro, 4800 - 21o andar - Jardim Panorama, São Paulo - SP, 05676-120