Trabalhamos com uma abordagem completa de engenharia de dados, desde a ingestão até a entrega das informações tratadas.
Desenvolvemos e mantemos pipelines de dados de ponta a ponta, garantindo qualidade, disponibilidade e performance.
Criamos, automatizamos e orquestramos fluxos de dados em ambientes escaláveis.
Integrar dados provenientes de múltiplas fontes (estruturadas e não estruturadas) é nosso objetivo.
Contribuímos para a evolução do ambiente de Big Data, Data Lake e Data Warehouse.
Suportamos áreas de negócio disponibilizando dados prontos para consumo analítico.
Trabalhamos em parceria com times de Analytics, BI e Produtos de Dados.
Nossa equipe atua no regime 100% Home Office.
Requisitos:
Experiência sólida em DataBricks.
Experiência com Spark, Python, Scala e ecossistema Hadoop.
Atuação com ETL/ELT, pipelines de dados e processos de ingestão em escala.
Conhecimento em Big Data, Data Warehouse e arquiteturas distribuídas.
Domínio em SQL (consultas complexas).
Experiência em Python para manipulação, transformação e integração de dados.
Orquestração e automação de pipelines (Airflow, Data Factory ou similares).
Conhecimento de estatística e modelagem de dados.
Experiência com ferramentas de BI: Power BI (DAX) e Tableau.
Familiaridade com bancos de dados relacionais e não-relacionais.
Benefícios:
Oportunidades de crescimento e desenvolvimento profissional.
Trabalho remoto na modalidade 100% Home Office.
Flexibilidade e autonomia para realizar suas atividades diárias.
Localização:
Home Office. Você pode trabalhar a partir de qualquer lugar que preferir.