O Dia a Dia Da Oportunidade Projetar, implementar e evoluir a arquitetura da plataforma de dados, assegurando escalabilidade, segurança e desempenho. Construir e manter pipelines de ingestão, transformação e entrega de dados (ETL/ELT), garantindo eficiência e qualidade. Aplicar boas práticas de versionamento de código (ex: Git) e automação com CI/CD para deploys e testes de pipelines. Implementar políticas de acesso, segurança e conformidade com regulamentações como LGPD. Estabelecer monitoramento, alertas e processos de observabilidade para garantir a operação contínua dos fluxos de dados. Trabalhar com cientistas de dados, analistas e áreas de negócio para entender demandas e entregar soluções.- Documentar sistemas e promover boas práticas de engenharia de dados e Data Ops dentro da organização. O que esperamos que você tenha para concorrer a oportunidade: Graduação - Completa (obrigatório) em Ciência da Computação, Engenharia da Computação, Sistemas de Informação, Estatística, Matemática ou áreas correlatas. Conhecimentos Específicos Python e SQL avançado (essenciais) Github - versionamento de códigos Experiência com APIs de dados ELT/ETL avançado com ferramentas : dbt, Airflow, Airbyte, DW, Datalake- Conhecimento em MINIO será um diferencial Design de pipelines escaláveis e distribuídos para ingestão, transformação e processamento em lote Comunicação clara e habilidade para trabalho em equipe. Boa capacidade analítica e de organização Horário de trabalho: De segunda a sexta-feira das 08h às 17:48h (Híbrido: 2x Office) Local de trabalho: Av. Magalhães de Castro, 4800 - 21o andar - Jardim Panorama, São Paulo - SP, 05676-120