Estamos em busca de um Engenheiro de Dados Sênior para atuar em projetos estratégicos de dados, envolvendo desde a ingestão até a visualização. Esse profissional será responsável por projetar, implementar e otimizar pipelines de dados em batch e streaming, apoiar a construção de data lakes multi-cloud, e garantir que as soluções sejam escaláveis, seguras e alinhadas às necessidades de negócio. Buscamos alguém com experiência prática comprovada em projetos de grande porte, que seja capaz de integrar diferentes ferramentas e trazer inovação através de automação e uso inteligente de AI.
* Projetar e implementar pipelines de dados em camadas batch e streaming, assegurando confiabilidade e performance;
* Estruturar e evoluir data lakes multi-cloud, garantindo governança, segurança e escalabilidade;
* Desenvolver soluções no Databricks para processamento distribuído, machine learning e integração com diferentes fontes de dados;
* Trabalhar de ponta a ponta: ingestão, tratamento, armazenamento, modelagem e disponibilização para visualização (BI/Analytics);
* Seguir padrões de arquitetura e boas práticas para engenharia de dados em ambientes híbridos e distribuídos;
* Colaborar com equipes de negócio, ciência de dados e produto para transformar dados em insights estratégicos;
* Implementar automações utilizando ferramentas como n8n e explorar integrações com soluções de AI para otimizar processos;
* Garantir qualidade, observabilidade e confiabilidade dos dados por meio de monitoramento, testes e versionamento de pipelines;
* Atuar em incidentes críticos relacionados a dados, liderando análises de causa raiz e propondo soluções sustentáveis.
Formação Acadêmica / Vivência Profissional
* Graduação completa em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas relacionadas.
* Experiência de 10 anos em engenharia de dados, com prática comprovada em projetos complexos.
Conhecimentos Técnicos Essenciais
* Experiência sólida em pipelines batch e streaming (Spark, Kafka, Flink, etc.);Experiência em data lakes multi-cloud (AWS, GCP e/ou Azure);
* Experiência em Databricks (PySpark, Delta Lake, MLlib, etc.) e Snowflake;
* Experiência prática de ingestão até visualização (integração com ferramentas de BI como Power BI, Tableau, Looker, Data Studio, Qlik, Einstein Insights);
* Conhecimento avançado em SQL e Python;
* Experiência com automação de processos (n8n, Airflow, Dagster ou similares);
* Vivência com práticas de segurança e governança de dados (LGPD/GDPR, controle de acesso, auditoria).
Conhecimentos Técnicos Desejáveis
* Experiência em setores de alta escala como iGaming, fintechs ou e-commerce;
* Conhecimento de ferramentas de AI aplicadas a dados (LLMs, AI Assistants, AutoML);
* Vivência em arquitetura orientada a eventos para ingestão e processamento de dados em tempo real;
* Conhecimento em dbt para modelagem e transformação de dados;
* Certificações em cloud (AWS, GCP ou Azure) ou Databricks.