Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar em projetos estratégicos de dados, envolvendo desde a ingestão até a visualização. Esse(a) profissional será responsável por projetar, implementar e otimizar pipelines de dados em batch e streaming, apoiar a construção de data lakes multi-cloud e garantir que as soluções sejam escaláveis, seguras e alinhadas às necessidades de negócio. Buscamos alguém com experiência prática comprovada em projetos de grande porte, que seja capaz de integrar diferentes ferramentas e trazer inovação por meio de automação e uso inteligente de IA. Responsabilidades • Projetar e implementar pipelines de dados em camadas batch e streaming, assegurando confiabilidade e performance; • Estruturar e evoluir data lakes multi-cloud, garantindo governança, segurança e escalabilidade; • Desenvolver soluções no Databricks para processamento distribuído, machine learning e integração com diferentes fontes de dados; • Trabalhar de ponta a ponta: ingestão, tratamento, armazenamento, modelagem e disponibilização para visualização (BI/Analytics); • Seguir padrões de arquitetura e boas práticas para engenharia de dados em ambientes híbridos e distribuídos; • Colaborar com equipes de negócio, ciência de dados e produto para transformar dados em insights estratégicos; • Implementar automações utilizando ferramentas como n8n e explorar integrações com soluções de AI para otimizar processos; • Garantir qualidade, observabilidade e confiabilidade dos dados por meio de monitoramento, testes e versionamento de pipelines; • Atuar em incidentes críticos relacionados a dados, liderando análises de causa raiz e propondo soluções sustentáveis. Requisitos Obrigatórios • Graduação completa em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas relacionadas; • Mínimo de 10 anos de experiência em engenharia de dados, com prática comprovada em projetos complexos; • Experiência sólida em pipelines batch e streaming (Spark, Kafka, Flink, etc.); • Experiência em data lakes multi-cloud (AWS, GCP e/ou Azure); • Experiência em Databricks (PySpark, Delta Lake, MLlib, etc.) e Snowflake; • Experiência prática de ingestão até visualização (integração com ferramentas de BI como Power BI, Tableau, Looker, Data Studio, Qlik, Einstein Insights); • Conhecimento avançado em SQL e Python; • Experiência com automação de processos (n8n, Airflow, Dagster ou similares); • Vivência com práticas de segurança e governança de dados (LGPD/GDPR, controle de acesso, auditoria); • Inglês avançado para leitura, escrita e interação técnica. Diferenciais (Nice to Have) • Experiência em setores de alta escala como iGaming, fintechs ou e-commerce; • Conhecimento de ferramentas de AI aplicadas a dados (LLMs, AI Assistants, AutoML); • Vivência em arquitetura orientada a eventos para ingestão e processamento de dados em tempo real; • Conhecimento em dbt para modelagem e transformação de dados; • Certificações em cloud (AWS, GCP ou Azure) ou Databricks.