**Desejamos um Engenheiro de Dados Sênior experiente para trabalhar em uma plataforma de dados robusta e escalável.
Resumo da Função
* O ideal é alguém com experiência sólida em construção e gestão de pipelines ETL/ELT, utilizando ferramentas como DBT, Fivetran e Airbyte;
* Ao mesmo tempo, espera-se que o candidato tenha conhecimento avançado em SQL e familiaridade com plataformas modernas de dados em nuvem, especialmente Snowflake e Databricks;
* Também é importante ter habilidades de programação em Python (ou linguagem similar) para automações e scripts, além de vivência com plataformas de streaming de dados, como Apache Kafka, e frameworks de qualidade de dados;
* Ademais, buscamos alguém com autonomia e bom relacionamento em ambientes dinâmicos, comprometido com código limpo, manutenível e boas práticas de design de dados.
Responsabilidades
1. Projetar e implementar processos automatizados de ingestão e transformação de dados, seguindo as melhores práticas de confiabilidade e manutenção;
2. Garantir qualidade, consistência e disponibilidade dos dados por meio de monitoramento, alertas e validações;
3. Colaborar com times multidisciplinares (analistas, PMs, engenheiros e stakeholders) para traduzir requisitos de dados em soluções eficientes;
4. Desenvolver e otimizar modelos de dados e workflows de transformação em ambientes como Snowflake, Databricks e data lakes;
5. Autar na integração entre sistemas via APIs e ferramentas modernas de ELT como Fivetran e Airbyte;
6. Promover boas práticas em engenharia de dados, documentação e qualidade de código;
7. Fomentar uma cultura colaborativa, compartilhando conhecimento e alinhando objetivos com o time.
Requisitos Técnicos
* Experiência sólida em construção e gestão de pipelines ETL/ELT, usando ferramentas como DBT, Fivetran e Airbyte;
* Domínio de SQL avançado e familiaridade com plataformas modernas de dados em nuvem, especialmente Snowflake e Databricks;
* Habilidades de programação em Python (ou linguagem similar) para automações e scripts;
* Vivência com plataformas de streaming de dados, como Apache Kafka, e frameworks de qualidade de dados;
* Conhecimento em infraestrutura como código (Terraform, Ansible).