Atuar em projetos de dados desafiadores com base em DBT Core e Apache Airflow é uma oportunidade.
Para isso, gerenciar pipelines de dados escaláveis garantindo performance e confiabilidade é fundamental.
Criar, manter e otimizar pipelines de dados em DBT Core e Airflow, monitorar dependências e ajustar operadores são responsabilidades do cargo.
Conhecimento em Git, CI/CD, testes automatizados e BigQuery (preferencialmente), Snowflake ou Redshift são requisitos para o cargo.
A consultoria brasileira oferece benefícios como treinamentos contínuos, reembolso 100% em certificações e parcerias com instituições de ensino.
Além disso, trabalhar em equipe e se adaptar a mudanças rápidas são habilidades valorizadas na empresa.