Aqui está uma oportunidade incrível para você se desenvolver em um ambiente de inovação e transformação digital.
O objetivo é trabalhar com integração e consolidação de dados das aplicações/análises, implementando soluções para pipeline de dados que automatizam a coleta, limpeza e transformação de dados utilizando as ferramentas Databricks de análises de dados (notebooks, apoio/Implementação ML, dashboards) e ingestão e integração de dados (Databricks Model Serving, Delta Lake/Feature Store, Data Quality, entre outras).
Requisitos
* Conhecimento Técnico: Experiência em desenvolvimento de software, engenharia de dados ou áreas correlatas. Conhecimento em bancos de dados, NoSQL, Big Data e ferramentas de análise de dados (data Bricks, PowerBI, etc.).
* Habilidades Técnicas: Sólida proficiência em pelo menos uma linguagem de programação (Python, Java, Scala, etc.). Experiência com ferramentas de ETL (Extract, Transform, Load), como Apache Spark, Kafka, Airflow, etc. Conhecimento em plataformas de armazenamento de dados em nuvem (AWS S3, Azure Blob Storage, Google Cloud Storage, etc.).
* Habilidades Analíticas: Capacidade de analisar dados e identificar padrões e insights relevantes. Experiência em estatística e probabilidade para aplicar técnicas de análise de dados.
Benefícios
* Assistência médica;
* VR e VA flexível;
* Gympass e Wellz;
* Parceria com o SESC;
* Descontos em restaurantes;
* Descontos em cursos técnicos e de ensinos superior;
* Descontos em escolas e plataformas de idiomas.