Projetos de Dados Escaláveis
Desenvolva projetos desafiadores com dados em grande escala, utilizando DBT Core e Apache Airflow.
Você será responsável por manter, otimizar e monitorar pipelines de dados escaláveis, garantindo performance, confiabilidade e boas práticas de engenharia.
Responsabilidades
* Criar, manter e otimizar pipelines de dados em DBT Core e Airflow;
* Monitorar DAGs, ajustar operadores e gerenciar dependências;
* Garantir versionamento, testes e documentação das transformações;
* Trabalhar com BigQuery (preferencialmente), Snowflake ou Redshift;
*
Requisitos Essenciais
* DBT – modelagem SQL, testes, macros, versionamento;
* Airflow – criação/monitoramento de DAGs, troubleshooting;
* SQL avançado e Python intermediário/avançado;
* Experiência com GCP (preferencialmente BigQuery), Snowflake ou Redshift;
* Conhecimento em Git, CI/CD e testes automatizados;
Diferenciais Importantes
* Experiência com monitoramento de pipelines (Monte Carlo, DataDog);
* Conhecimento em Dataform ou Prefect;
* Vivência em squads de dados ágeis e orientados a produto;
Soft Skills Valiosos
* Pensamento analítico e foco em solução de problemas;
* Boa comunicação com públicos técnicos e não técnicos;
* Proatividade para melhorias contínuas;
* Compromisso com qualidade, performance e escalabilidade;