 
        
        Descrição da Vaga
O profissional responsável por desenvolver e otimizar pipelines de dados atuará em projetos desafiadores com grandes volumes de dados. Será responsável por manter, otimizar e monitorar pipelines escaláveis, garantindo performance, confiabilidade e práticas de engenharia adequadas.
Responsabilidades
 * Criar, manter e otimizar pipelines de dados em DBT Core e Airflow;
 * Monitorar DAGs, ajustar operadores e gerenciar dependências;
 * Garantir versionamento, testes e documentação das transformações;
 * Trabalhar com BigQuery (preferencialmente), Snowflake ou Redshift;
 * Integrar dados de APIs, bancos relacionais e ferramentas de analytics;
 * Propor melhorias arquiteturais e práticas de engenharia;
Habilidades e Qualificações
 * DBT – modelagem SQL, testes, macros, versionamento;
 * Airflow – criação/monitoramento de DAGs, troubleshooting;
 * SQL avançado e Python intermediário/avançado;
 * Experiência com GCP (preferencialmente BigQuery), Snowflake ou Redshift;
 * Conhecimento em Git, CI/CD e testes automatizados;
Benefícios
 * Experiência com monitoramento de pipelines (Monte Carlo, DataDog);
 * Conhecimento em Dataform ou Prefect;
 * Vivência em squads de dados ágeis e orientados a produto;
Sobre a ATRA
A consultoria especializada em Dados, Analytics, Governança e IA atua com grandes empresas e é parceira de líderes como Google, Microsoft e Denodo. Aqui, trabalhamos com dados, mas o foco sempre é gente.