Desenvolver habilidades em DBT Core e Apache Airflow para criar soluções escaláveis é uma oportunidade desafiadora.
Sobre a Oportunidade
* Criar, manter e otimizar pipelines de dados em DBT Core e Airflow para entrega contínua.
* Monitorar DAGs e gerenciar dependências com precisão.
* Garantir versionamento, testes e documentação das transformações para qualidade.
* Trabalhar com BigQuery (preferencialmente), Snowflake ou Redshift para gestão de dados.
* Integrar dados de APIs, bancos relacionais e ferramentas de analytics para análise profunda.
* Propor melhorias arquiteturais e práticas de engenharia para otimização.
Requisitos
* DBT – modelagem SQL, testes, macros e versionamento para entrega segura.
* Airflow – criação/monitoramento de DAGs e troubleshooting para performance ótima.
* SQL avançado e Python intermediário/avançado para resolução complexa.
* Experiência com GCP (preferencialmente BigQuery), Snowflake ou Redshift para análise exploratória.
* Conhecimento em Git, CI/CD e testes automatizados para automação inteligente.
Diferenciais
* Experiência em monitoramento de pipelines (Monte Carlo, DataDog) para gestão proativa.
* Conhecimento em Dataform ou Prefect para automatização da ciência de dados.
* Vivência em squads de dados ágeis e orientados a produto para colaboração eficaz.
Nossa Visão
Acreditamos na importância do desenvolvimento dos talentos para enfrentar os desafios tecnológicos atuais.