Formação Acadêmica
* Graduação completa em Ciência da Computação, Desenvolvimento de Sistemas, Engenharias ou áreas correlatas.
Experiência Profissional
* Atuação como Engenheiro(a) de Dados ou função equivalente, preferencialmente em ambientes de nuvem.
* Desenvolvimento e manutenção de pipelines de ingestão e processamento de dados (batch e integrações via APIs).
* Normalização, padronização e transformação de dados em arquiteturas de Data Lake / Lakehouse.
* Modelagem de dados (relacional e dimensional) e experiência com diferentes arquiteturas de armazenamento (bancos relacionais/não relacionais, DW, Data Lake).
* Atuação orientada ao negócio, colaborando com times analíticos e garantindo documentação adequada dos fluxos de dados.
Conhecimentos Específicos
* Python aplicado a engenharia de dados (requisições HTTP, manipulação e automação);
* Spark / PySpark para processamento distribuído;
* Linguagem SQL;
* Git e boas práticas de versionamento;
* Conceitos de Data Lake / Lakehouse (camadas bronze, silver, gold);
* Integração com APIs REST (GET, paginação, autenticação);
* Orquestração de pipelines (ADF ou ferramentas equivalentes);
* Noções de qualidade de dados, diagnóstico de desempenho e otimização de pipelines.
[Desejáveis] Formações, Conhecimentos e/ou Experiências
1. Pós-graduação ou Mestrado em áreas correlatas;
2. Certificações em engenharia de dados, Azure ou Databricks;
3. Experiência com consumo de dados públicos nacionais (ex.: IBGE, CAGED, RAIS, INPI, CNES, etc.);
4. Vivência na construção de webscrapers e automações.
* Responsável por construir, evoluir e sustentar pipelines de dados em arquiteturas modernas (Data Lake e Lakehouse), garantindo que os dados estejam disponíveis, padronizados, confiáveis e otimizados para consumo analítico e operacional;
* Atuar desde a ingestão de dados (batch, APIs, webscraping) até o tratamento, modelagem e disponibilização em camadas estruturadas (bronze, silver, gold), seguindo padrões técnicos, boas práticas de engenharia, governança e qualidade de dados;
* Responsável por monitorar, diagnosticar e corrigir falhas em processos de dados, implementar melhorias contínuas, apoiar iniciativas analíticas e contribuir para a definição e aplicação de padrões arquiteturais.