Descrição do Cargo
">
Você será responsável por manter, otimizar e monitorar pipelines de dados escaláveis, garantindo performance, confiabilidade e boas práticas de engenharia.
">
Atuará com DBT para modelagem clara, modular e reutilizável, e com Airflow para orquestração e sustentação de workflows.
">
Responsabilidades:
">
* Criar, manter e otimizar pipelines de dados em DBT Core e Airflow.
">
* Monitorar DAGs, ajustar operadores e gerenciar dependências.
">
* Garantir versionamento, testes e documentação das transformações.
">
* Trabalhar com BigQuery (preferencialmente), Snowflake ou Redshift.
">
* Integrar dados de APIs, bancos relacionais e ferramentas de analytics.
">
* Propor melhorias arquiteturais e práticas de engenharia.
">
">
Requisitos:
">
* DBT – modelagem SQL, testes, macros, versionamento.
">
* Airflow – criação/monitoramento de DAGs, troubleshooting.
">
* SQL avançado e Python intermediário/avançado.
">
* Experiência com GCP (preferencialmente BigQuery), Snowflake ou Redshift.
">
* Conhecimento em Git, CI/CD e testes automatizados.
">
">
Benefícios
">
* TotalPass – academias e estúdios parceiros.
">
* Treinamentos contínuos.
">
* Reembolso 100% em certificações.
">
* Parcerias com instituições de ensino.
">
* Projetos desafiadores com tecnologias de ponta.
">
">
Sobre a Empresa
">
Nossa empresa é uma consultoria especializada em Dados, Analytics, Governança e IA.
">
Atuamos com grandes empresas e somos parceiros de líderes como Google, Microsoft, Denodo, Databricks, Atlan, BigID, IBM e Informatica.
">
Aqui, trabalhamos com dados, mas o foco sempre é gente.
">
Características da Empresa
">
Mais de 15 anos no mercado.
">
Somos uma empresa brasileira.
">
Focada em dados e analytics.
">
Parceiros de líderes do setor.