Responsabilidades e atribuições
* Desenvolver e manter pipelines de dados utilizando Databricks e Apache Spark.
* Atuar em projetos de dados em ambiente AWS, garantindo escalabilidade e performance.
* Trabalhar em conjunto com times multidisciplinares, incluindo engenharia, dados e AI.
* Garantir qualidade, governança e confiabilidade dos dados.
* Participar de discussões técnicas e decisões de arquitetura de dados.
* Colaborar com times globais, participando de reuniões em inglês.
Requisitos e qualificações
* Sólida experiência com Databricks e Apache Spark.
* Experiência com stack AWS.
* Experiência em desenvolvimento de pipelines de dados.
* Vivência com ambientes de dados escaláveis e distribuídos.
* Conhecimento em boas práticas de engenharia de dados.
* Inglês avançado/fluente (capacidade de participação em reuniões com times globais.