 
        
        Buscamos um profissional qualificado para atuar em projetos de dados com grande escala.
Será responsável por manter, otimizar e monitorar pipelines de dados escaláveis, garantindo performance, confiabilidade e boas práticas de engenharia.
O candidato ideal é aquele que domina DBT Core e Airflow, com experiência em BigQuery, Snowflake ou Redshift, e habilidades em SQL avançado e Python intermediário/avançado.
Aqui você terá a oportunidade de trabalhar em equipe de dados ágeis e orientados a produto, contribuindo para o sucesso da empresa.
Responsabilidades:
 * Criar, manter e otimizar pipelines de dados em DBT Core e Airflow.
 * Monitorar DAGs, ajustar operadores e gerenciar dependências.
 * Garantir versionamento, testes e documentação das transformações.
 * Trabalhar com BigQuery (preferencialmente), Snowflake ou Redshift.
 * Integrar dados de APIs, bancos relacionais e ferramentas de analytics.
 * Propor melhorias arquiteturais e práticas de engenharia.
Habilidades Suporte:
 * Pensamento analítico e foco em solução de problemas.
 * Boa comunicação com públicos técnicos e não técnicos.
 * Proatividade para melhorias contínuas.
 * Compromisso com qualidade, performance e escalabilidade.