Responsabilidades
• Atuar em todo o ciclo de desenvolvimento de software, incluindo testes unitários e de integração
• Realizar deploy em ambientes como Snowflake, Databricks, Hadoop, AWS ou Azure
• Trabalhar com ferramentas de ingestão de dados como StreamSets, Apache NiFi ou Azure Data Factory
• Gerenciar armazenamento distribuído (Kafka, HDFS, S3/ADLS, Elastic)
• Escrever, depurar e otimizar queries SQL
• Desenvolver pipelines e soluções com Python, PySpark, Spark SQL e Spark Structured Streaming
• Utilizar ferramentas como GitHub, GitHub Actions e Databricks Asset Bundles
• Aplicar princípios de design SOLID
Requisitos
• Experiência comprovada como Data Engineer (10 a 15 anos)
• Proficiência em SQL e programação Python
• Domínio de Databricks, Spark e DataLake
• Conhecimento em JSON, DataFrame e Structured Streaming
• Experiência com ferramentas de versionamento e automação (GitHub, GitHub Actions)
• Inglês fluente (obrigatório)
Qualificações Desejáveis
• Conhecimento em SAP WITS/WITSML e CosmoDB
• Familiaridade com Databricks CLI
• Experiência no setor de Óleo & Gás será considerada um diferencial
• Contratação PJ
• Modelo de trabalho 100% remoto
• Projeto de longa duração com cliente multinacional
• Integração com equipe global