Desenvolver soluções de dados inovadoras e eficientes requer profissionais experientes em engenharia de dados. Neste cargo, você trabalhará como Engenheiro(a) de Dados Sênior para projetar e implementar processos automatizados de ingestão e transformação de dados, seguindo as melhores práticas de confiabilidade e manutenção.
Responsabilidades:
* Projetar pipelines ETL/ELT com uso de ferramentas modernas como DBT, Fivetran e Airbyte;
* Garantir qualidade, consistência e disponibilidade dos dados por meio de monitoramento, alertas e validações;
* Contribuir para a arquitetura da plataforma de dados, liderando decisões técnicas sobre estratégia e evolução da infraestrutura;
* Colaborar com times multidisciplinares (analistas, PMs, engenheiros e stakeholders) para traduzir requisitos de dados em soluções eficientes;
* Desenvolver e otimizar modelos de dados e workflows de transformação em ambientes como Snowflake, Databricks e data lakes;
* Atuar na integração entre sistemas via APIs e ferramentas modernas de ELT como Fivetran e Airbyte;
* Promover boas práticas em engenharia de dados, documentação e qualidade de código;
* Fomentar uma cultura colaborativa, compartilhando conhecimento e alinhando objetivos com o time.
Para exercer esse cargo, é necessário possuir experiência sólida em construção e gestão de pipelines ETL/ELT com uso de DBT, Fivetran e Airbyte. Além disso, é importante ter domínio de SQL avançado e familiaridade com plataformas modernas de dados em nuvem, especialmente Snowflake e Databricks. Conhecimento em ferramentas de BI como Looker, Power BI e Sigma Computing também é necessário.
Requisitos Técnicos:
* Experiência sólida em construção e gestão de pipelines ETL/ELT com uso de DBT, Fivetran e Airbyte;
* Domínio de SQL avançado e familiaridade com plataformas modernas de dados em nuvem, especialmente Snowflake e Databricks;
* Conhecimento em ferramentas de BI como Looker, Power BI e Sigma Computing;
* Entendimento profundo de arquiteturas de data lake e modelagem de dados para cenários batch e em tempo real;
* Habilidades de programação em Python (ou linguagem similar) para automações e scripts;
* Vivência com plataformas de streaming de dados (Apache Kafka, por exemplo) e frameworks de qualidade de dados;
* Conhecimento em infraestrutura como código (Terraform, Ansible);
* Perfil colaborativo, com autonomia e bom relacionamento em ambientes dinâmicos;
* Comprometimento com código limpo, manutenível e boas práticas de design de dados.
A idealização dessas características garante que os nossos integrantes tenham um ambiente dinâmico, onde há sempre oportunidades de aprendizado e desenvolvimento. Nossa visão é de proporcionar aos nossos profissionais uma carreira plena de desafios e conquistas, fazendo parte de um ambiente diverso e acolhedor.