Estamos em busca de um Engenheiro de Dados Sênior para atuar em projetos estratégicos de dados, envolvendo desde a ingestão até a visualização. Esse profissional será responsável por projetar, implementar e otimizar pipelines de dados em batch e streaming, apoiar a construção de data lakes multi-cloud, e garantir que as soluções sejam escaláveis, seguras e alinhadas às necessidades de negócio. Buscamos alguém com experiência prática comprovada em projetos de grande porte, que seja capaz de integrar diferentes ferramentas e trazer inovação através de automação e uso inteligente de AI. Projetar e implementar pipelines de dados em camadas batch e streaming, assegurando confiabilidade e performance; Estruturar e evoluir data lakes multi-cloud, garantindo governança, segurança e escalabilidade; Desenvolver soluções no Databricks para processamento distribuído, machine learning e integração com diferentes fontes de dados; Trabalhar de ponta a ponta: ingestão, tratamento, armazenamento, modelagem e disponibilização para visualização (BI/Analytics); Seguir padrões de arquitetura e boas práticas para engenharia de dados em ambientes híbridos e distribuídos; Colaborar com equipes de negócio, ciência de dados e produto para transformar dados em insights estratégicos; Implementar automações utilizando ferramentas como n8n e explorar integrações com soluções de AI para otimizar processos; Garantir qualidade, observabilidade e confiabilidade dos dados por meio de monitoramento, testes e versionamento de pipelines; Atuar em incidentes críticos relacionados a dados, liderando análises de causa raiz e propondo soluções sustentáveis. Formação Acadêmica / Vivência Profissional Graduação completa em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas relacionadas. Experiência de 10 anos em engenharia de dados, com prática comprovada em projetos complexos. Conhecimentos Técnicos Essenciais Experiência sólida em pipelines batch e streaming (Spark, Kafka, Flink, etc.);Experiência em data lakes multi-cloud (AWS, GCP e/ou Azure); Experiência em Databricks (PySpark, Delta Lake, MLlib, etc.) e Snowflake; Experiência prática de ingestão até visualização (integração com ferramentas de BI como Power BI, Tableau, Looker, Data Studio, Qlik, Einstein Insights); Conhecimento avançado em SQL e Python; Experiência com automação de processos (n8n, Airflow, Dagster ou similares); Vivência com práticas de segurança e governança de dados (LGPD/GDPR, controle de acesso, auditoria). Conhecimentos Técnicos Desejáveis Experiência em setores de alta escala como iGaming, fintechs ou e-commerce; Conhecimento de ferramentas de AI aplicadas a dados (LLMs, AI Assistants, AutoML); Vivência em arquitetura orientada a eventos para ingestão e processamento de dados em tempo real; Conhecimento em dbt para modelagem e transformação de dados; Certificações em cloud (AWS, GCP ou Azure) ou Databricks.