O Dia a Dia Da Oportunidade
Projetar, implementar e evoluir a arquitetura da plataforma de dados, assegurando escalabilidade, segurança e desempenho.
Construir e manter pipelines de ingestão, transformação e entrega de dados (ETL/ELT), garantindo eficiência e qualidade.
Aplicar boas práticas de versionamento de código (ex: Git) e automação com CI/CD para deploys e testes de pipelines.
Implementar políticas de acesso, segurança e conformidade com regulamentações como LGPD.
Estabelecer monitoramento, alertas e processos de observabilidade para garantir a operação contínua dos fluxos de dados.
Trabalhar com cientistas de dados, analistas e áreas de negócio para entender demandas e entregar soluções.- Documentar sistemas e promover boas práticas de engenharia de dados e DataOps dentro da organização.
O que esperamos que você tenha para concorrer a oportunidade:
Graduação - Completa (obrigatório) em Ciência da Computação, Engenharia da Computação, Sistemas de Informação, Estatística, Matemática ou áreas correlatas.
Conhecimentos Específicos
Python e SQL avançado (essenciais)
Github - versionamento de códigos
Experiência com APIs de dados
ELT/ETL avançado com ferramentas : dbt, Airflow, Airbyte, DW, Datalake- Conhecimento em MINIO será um diferencial
Design de pipelines escaláveis e distribuídos para ingestão, transformação e processamento em lote
Comunicação clara e habilidade para trabalho em equipe.
Boa capacidade analítica e de organização
Horário de trabalho:De segunda a sexta-feira das 08h às 17:48h (Híbrido: 2x Office)
Local de trabalho:Av. Magalhães de Castro, 4800 - 21o andar - Jardim Panorama, São Paulo - SP, 05676-120