Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar em projetos estratégicos de dados, envolvendo desde a ingestão até a visualização. Esse(a) profissional será responsável por projetar, implementar e otimizar pipelines de dados em batch e streaming, apoiar a construção de data lakes multi-cloud e garantir que as soluções sejam escaláveis, seguras e alinhadas às necessidades de negócio. Buscamos alguém com experiência prática comprovada em projetos de grande porte, que seja capaz de integrar diferentes ferramentas e trazer inovação por meio de automação e uso inteligente de IA.
Responsabilidades
Projetar e implementa pipelines de dados em camadas batch e streaming, assegurando confiabilidade e performance;
Estruturar e evoluir data lakes multi-cloud, garantindo governança, segurança e escalabilidade;
Desenvolver soluções no Databricks para processamento distribuído, machine learning e integração com diferentes fontes de dados;
Trabalhar de ponta a ponta: ingestão, tratamento, armazenamento, modelagem e disponibilização para visualização (BI/Analytics);
Seguir padrões de arquitetura e boas práticas para engenharia de dados em ambientes híbridos e distribuídos;
Colaborar com equipes de negócio, ciência de dados e produto para transformar dados em insights estratégicos;
Implementar automações utilizando ferramentas como n8n e explorar integrações com soluções de AI para otimizar processos;
Garantir qualidade, observabilidade e confiabilidade dos dados por meio de monitoramento, testes e versionamento de pipelines;
Atuar em incidentes críticos relacionados a dados, liderando análises de causa raiz e propondo soluções sustentáveis.
Requisitos Obrigatórios
Graduação completa em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas relacionadas;
Mínimo de 10 anos de experiência em engenharia de dados, com prática comprovada em projetos complexos;
Experiência sólida em pipelines batch e streaming (Spark, Kafka, Flink, etc.);
Experiência em data lakes multi-cloud (AWS, GCP e/ou Azure);
Experiência em Databricks (PySpark, Delta Lake, MLlib, etc.) e Snowflake;
Experiência prática de ingestão até visualização (integração com ferramentas de BI como Power BI, Tableau, Looker, Data Studio, Qlik, Einstein Insights);
Conhecimento avançado em SQL e Python;
Experiência com automação de processos (n8n, Airflow, Dagster ou similares);
Vivência com práticas de segurança e governança de dados (LGPD/GDPR, controle de acesso, auditoria);
Inglês avançado para leitura, escrita e interação técnica.
Diferenciais (Nice to Have)
Experiência em setores de alta escala como iGaming, fintechs ou e-commerce;
Conhecimento de ferramentas de AI aplicadas a dados (LLMs, AI Assistants, AutoML);
Vivência em arquitetura orientada a eventos para ingestão e processamento de dados em tempo real;
Conhecimento em dbt para modelagem e transformação de dados;
Certificações em cloud (AWS, GCP ou Azure) ou Databricks.
#J-18808-Ljbffr