Trabalhamos em parceria com um cliente de Dallas (EUA) para encontrar um(a) Engenheiro(a) de Dados Sênior.
Responsabilidades:
* Desenvolvimento de Processos Automatizados: Projetar e implementar processos automatizados de ingestão e transformação de dados, seguindo as melhores práticas de confiabilidade e manutenção.
* Garantia da Qualidade dos Dados: Garantir qualidade, consistência e disponibilidade dos dados por meio de monitoramento, alertas e validações.
* Liderança Técnica: Contribuir para a arquitetura da plataforma de dados, liderando decisões técnicas sobre estratégia e evolução da infraestrutura.
* Colaboração Multidisciplinar: Colaborar com times multidisciplinares (analistas, PMs, engenheiros e stakeholders) para traduzir requisitos de dados em soluções eficientes.
* Modelagem e Desenvolvimento de Fluxos de Trabalho: Desenvolver e otimizar modelos de dados e workflows de transformação em ambientes como Snowflake, Databricks e data lakes.
* Integração entre Sistemas: Atuar na integração entre sistemas via APIs e ferramentas modernas de ELT como Fivetran e Airbyte.
* Boas Práticas e Cultura Colaborativa: Promover boas práticas em engenharia de dados, documentação e qualidade de código. Fomentar uma cultura colaborativa, compartilhando conhecimento e alinhando objetivos com o time.
Requisitos Técnicos:
* Pipelines ETL/ELT: Experiência sólida em construção e gestão de pipelines ETL/ELT com uso de DBT, Fivetran e Airbyte.
* Ferramentas de BI: Domínio de SQL avançado e familiaridade com plataformas modernas de dados em nuvem, especialmente Snowflake e Databricks. Conhecimento em ferramentas de BI como Looker, Power BI e Sigma Computing.
* Arquiteturas de Data Lake: Entendimento profundo de arquiteturas de data lake e modelagem de dados para cenários batch e em tempo real.
* Programação em Python: Habilidades de programação em Python (ou linguagem similar) para automações e scripts.
* Plataformas de Streaming de Dados: Vivência com plataformas de streaming de dados (Apache Kafka, por exemplo) e frameworks de qualidade de dados.
* Infraestrutura como Código: Conhecimento em infraestrutura como código (Terraform, Ansible).
* Perfil Profissional: Perfil colaborativo, com autonomia e bom relacionamento em ambientes dinâmicos.
Qualificações:
*
*
*
*
*
* Docker e Kubernetes: Desejável conhecimento em Docker e plataformas de orquestração como Kubernetes.