Experiência na construção de ETLs, modelagem e arquitetura de dados em datalake no ambiente cloud;
- Sólidos conhecimentos em Spark, SQL, Python, Pyspark e Pandas;
- Projetar e melhorar práticas para movimentação de dados de/para diferentes fontes Kafka;
- Proficiente com desenvolvimento de aplicação conteinerizados e sistemas de orquestração de contêineres, como Kubernetes;
- Criar, testar e melhorar APIs e SDKs;
- Metodologia Ágil;
- Contribuir para fornecer serviços de dados e análises para auxiliar o Machine Learning;
- Colaborar com a equipe de ML para produzir modelos eficientes;
Desejável:
- Conhecimento de Java;
- Solução de problemas técnicos e análise baseada em dados;
- Fortes habilidades de pesquisa e de comunicação;
- Conhecimentos em plataformas de Cloud Computing, tais como Azure, GCP ou AWS.