O que buscamos em você:Graduação completa em áreas de Tecnologia, Sistemas de Informação, Engenharia, Ciência da Computação ou correlatas;Experiência sólida como Engenheiro de Dados, com domínio em construção e manutenção de pipelines;Conhecimento avançado em SQL, Python e PySpark;Vivência com ferramentas como Airflow, Airbyte, Databricks e Power BI;Sólida compreensão de modelagem de dados, design de banco e performance de consultas;Boa comunicação, proatividade e capacidade de atuar de forma colaborativa em um ambiente dinâmico;Diponibilidade para modelo híbrido em São Paulo/SP ou Goiânia/GO.Critérios que aumentam o match com a vaga: Participação em projetos de dados monetizados;Experiência em reconstrução de Data Lakes e definição de arquitetura de dados;Vivência com Azure Cloud, Kubernetes, Docker e DBT (Data Build Tool).Como será o seu dia a dia:Projetar e implementar pipelines de dados eficientes e escaláveis, integrando múltiplas fontes (estruturadas e não estruturadas);Criar camadas da dados Analíticas permitindo o Self Service de dados;Entender profundamente o negocio e criar relatórios que atendam as necessidades de tomada de decisão;Criar soluções para ingestão, transformação (ETL/ELT) e disponibilização de dados para as áreas de negócio;Otimizar o desempenho dos pipelines e monitorar sua operação de forma proativa;Atuar junto ao time na definição da arquitetura e implementação de boas práticas de engenharia e governança de dados;Apoiar o processo de modelagem de dados, design de banco e otimização de queries;Facilitar a comunicação entre o time de dados e demais áreas da companhia;Participar ativamente na construção de soluções estratégicas baseadas em dados, com foco em escalabilidade, performance e confiabilidade.