Requisitos
A experiência em desenvolvimento de software, engenharia de dados ou áreas correlatas é fundamental para este cargo.
* Experiência Técnica: Conhecimento em bancos de dados, NoSQL, Big Data e ferramentas de análise de dados (data Bricks, PowerBI, etc).
Habilidades Técnicas:
* Sólida proficiência em pelo menos uma linguagem de programação (Python, Java, Scala, etc.).
* Experiência com ferramentas de ETL (Extract, Transform, Load), como Apache Spark, Kafka, Airflow, etc.
* Conhecimento em plataformas de armazenamento de dados em nuvem (AWS S3, Azure Blob Storage, Google Cloud Storage, etc.).
Habilidades Analíticas:
* Capacidade de analisar dados e identificar padrões e insights relevantes.
* Experiência em estatística e probabilidade para aplicar técnicas de análise de dados.
Obrigatório:
* Experiência com arquitetura Azure / Databricks.
Responsabilidade:
* Realizar o desenho de solução de integração e consolidação de dados das aplicações/análises.
Implementar soluções para pipeline de dados que automatizam a coleta, limpeza e transformação de dados utilizando as ferramentas Databricks de análises de dados (notebooks, apoio / Implementação ML, dasboards) e ingestão e integração de dados (Databricks Model Serving, Delta Lake/Feature Store, Data Quality, entre outras). Desenvolver API, rest entre outras, para coleta de dados.
Benefícios:
* Assistência médica;
* VR e VA flexível;
* Gympass e Wellz;
* Parceria com o SESC;
* Descontos em restaurantes;
* Descontos em cursos técnicos e de ensinos superior;
* Descontos em escolas e plataformas de idiomas.