Responsabilidade
Se responsabilizar pelo desenho de solução de integração e consolidação de dados das aplicações/análises.
Implementar soluções para pipeline de dados que automatizam a coleta, limpeza e transformação de dados utilizando as ferramentas Databricks de análises de dados (notebooks, apoio/Implementação ML, dashboards) e ingestão e integração de dados (Databricks Model Serving, Delta Lake/Feature Store, Data Quality, entre outras).
* Desenvolver APIs, rest entre outras, para coleta de dados.
Ao implementar essas soluções você atuará como um verdadeiro especialista em desenvolvimento de software e engenharia de dados!
-----------------------------------
Habilidades Técnicas
Possuir sólida proficiência em pelo menos uma linguagem de programação (Python, Java, Scala, etc.).
Também é necessário possuir experiência com ferramentas de ETL (Extract, Transform, Load), como Apache Spark, Kafka, Airflow, etc.
E não esqueça do conhecimento em plataformas de armazenamento de dados em nuvem (AWS S3, Azure Blob Storage, Google Cloud Storage, etc.)!
-----------------------------------
Habilidades Analíticas
Desejável capacidade de analisar dados e identificar padrões e insights relevantes.
Além disso, deseja-se experiência em estatística e probabilidade para aplicar técnicas de análise de dados.
-----------------------------------
Sobre Nós
Nosso Clube da Four oferece ótimas vantagens:
Assistência médica;
VR e VA flexível;
Gympass e Wellz;
Parceria com o SESC;
Descontos em restaurantes;
Descontos em cursos técnicos e de ensinos superior;
Descontos em escolas e plataformas de idiomas.
* e muito mais!