Formação AcadêmicaGraduação completa em Ciência da Computação, Desenvolvimento de Sistemas, Engenharias ou áreas correlatas. Experiência ProfissionalAtuação como Engenheiro(a) de Dados ou função equivalente, preferencialmente em ambientes de nuvem. Desenvolvimento e manutenção de pipelines de ingestão e processamento de dados (batch e integrações via APIs). Normalização, padronização e transformação de dados em arquiteturas de Data Lake / Lakehouse. Modelagem de dados (relacional e dimensional) e experiência com diferentes arquiteturas de armazenamento (bancos relacionais/não relacionais, DW, Data Lake). Atuação orientada ao negócio, colaborando com times analíticos e garantindo documentação adequada dos fluxos de dados. Conhecimentos EspecíficosPython aplicado a engenharia de dados (requisições HTTP, manipulação e automação);Spark / PySpark para processamento distribuído;Linguagem SQL;Git e boas práticas de versionamento;Conceitos de Data Lake / Lakehouse (camadas bronze, silver, gold);Integração com APIs REST (GET, paginação, autenticação);Orquestração de pipelines (ADF ou ferramentas equivalentes);Noções de qualidade de dados, diagnóstico de desempenho e otimização de pipelines. (Desejáveis) Formações, Conhecimentos e/ou ExperiênciasPós-graduação ou Mestrado em áreas correlatas;Certificações em engenharia de dados, Azure ou Databricks;Experiência com consumo de dados públicos nacionais (ex.: IBGE, CAGED, RAIS, INPI, CNES, etc.);Vivência na construção de webscrapers e automações. Responsável por construir, evoluir e sustentar pipelines de dados em arquiteturas modernas (Data Lake e Lakehouse), garantindo que os dados estejam disponíveis, padronizados, confiáveis e otimizados para consumo analítico e operacional;Atuar desde a ingestão de dados (batch, APIs, webscraping) até o tratamento, modelagem e disponibilização em camadas estruturadas (bronze, silver, gold), seguindo padrões técnicos, boas práticas de engenharia, governança e qualidade de dados;Responsável por monitorar, diagnosticar e corrigir falhas em processos de dados, implementar melhorias contínuas, apoiar iniciativas analíticas e contribuir para a definição e aplicação de padrões arquiteturais.