Job description
Apoiar no desenvolvimento, manutenção e evolução de pipelines de dados e estruturas analíticas, garantindo a integração, qualidade e disponibilidade dos dados para os times de negócio e tecnologia.
Somos uma empresa do agronegócio, fundada há quase 5 décadas. Estamos ao lado do agricultor durante todas as etapas de sua produção, desde o plantio até a colheita, com unidades graneleiras, lojas para o fornecimento de insumos agrícolas e soluções financeiras para o agronegócio, estamos presentes no Sul do Brasil. Na Agrofel, cada dia uma nova página é escrita, onde a criatividade e a determinação se unem para cultivar novas soluções para o produtor rural.
Main responsibilities
* Construir e manter pipelines de dados utilizando práticas de ETL/ELT, com foco em eficiência e confiabilidade.
* Monitorar e dar suporte a fluxos de ingestão e transformação de dados, propondo melhorias contínuas.
* Manter repositórios e estruturas de dados organizadas e seguras, alinhadas com as necessidades analíticas da empresa.
* Apoiar o desenvolvimento de soluções baseadas em arquitetura moderna de dados (como Data Lakehouse, Data Mesh).
* Garantir a qualidade, integridade e consistência dos dados processados.
* Atuar em conjunto com equipes de produto, dados e sistemas para implementar soluções de dados escaláveis.
* Documentar os processos e rotinas implementadas, assegurando o conhecimento técnico compartilhado.
* Apoiar iniciativas de governança de dados e classificação da informação conforme diretrizes corporativas.
* Colaborar na implementação de práticas de Governança de Dados, assegurando que os dados estejam alinhados às necessidades da empresa, aos requisitos de segurança e às regulamentações legais.
* Contribuir para a disseminação da cultura data-driven dentro da organização.
Requirements and skills
* Experiência sólida com ferramentas de ingestão de dados da Microsoft (Azure Data Factory, Azure Databricks e Azure Synapse).
* Conhecimento de arquiteturas de Data Lake e Data Warehouse em ambiente Azure.
* Experiência com linguagem de programação para manipulação de dados (Python, SQL, Scala, R).
* Conhecimento básico em Governança de Dados.
* Experiência em metodologias ágeis (Scrum, Kanban).
* Experiência com ferramentas de visualização (Power BI).
* Experiência com consumo de API REST
* Desejável conhecimento em modelagem de dados e arquitetura medalhão.
* Desejável conhecimento em Metabase, Apache Airflow, DBT e pool de ferramentas de manipulação dados da AWS será um diferencial.
Additional information
* Vale Refeição;
* Plano de Saúde Unimed Nacional;
* Plano Odontológico Uniodonto;
* Wellhub (gympass);
* Convênio Farmácia;
* Seguro de Vida;
* PLR Anual.
#J-18808-Ljbffr