Acompanhe a evolução dos dados em um ambiente escalável, desenvolvendo e mantendo pipelines de ponta a ponta para garantir qualidade, disponibilidade e performance.
Integre dados provenientes de múltiplas fontes (estruturadas e não estruturadas), contribuindo para a evolução do ambiente de Big Data, Data Lake e Data Warehouse.
Oportunidade de atuar no processo completo de engenharia de dados, desde a ingestão até a entrega das informações tratadas.
Requisitos:
* Experiência sólida em DataBricks
* Experiência com Spark, Python, Scala e ecossistema Hadoop
* Atuação com ETL/ELT, pipelines de dados e processos de ingestão em escala
* Conhecimento em Big Data, Data Warehouse e arquiteturas distribuídas
* Domínio em SQL (consultas complexas)
* Experiência em Python para manipulação, transformação e integração de dados
* Orquestração e automação de pipelines (Airflow, Data Factory ou similares)
* Conhecimento de estatística e modelagem de dados
* Experiência com ferramentas de BI: Power BI (DAX) e Tableau
* Familiaridade com bancos de dados relacionais e não-relacionais
Vantagens:
* Regime 100% Home Office
* Regime de Contratação Flexível
Onde você vai trabalhar?
No conforto da sua casa.