Responsabilidades e atribuições- Desenvolver e manter pipelines de dados utilizando Databricks e Apache Spark.- Atuar em projetos de dados em ambiente AWS, garantindo escalabilidade e performance.- Trabalhar em conjunto com times multidisciplinares, incluindo engenharia, dados e AI.- Garantir qualidade, governança e confiabilidade dos dados.- Participar de discussões técnicas e decisões de arquitetura de dados.- Colaborar com times globais, participando de reuniões em inglês.Requisitos e qualificações- Sólida experiência com Databricks e Apache Spark.- Experiência com stack AWS.- Experiência em desenvolvimento de pipelines de dados.- Vivência com ambientes de dados escaláveis e distribuídos.- Conhecimento em boas práticas de engenharia de dados.- Inglês avançado/fluente (capacidade de participação em reuniões com times globais.