Aqui você terá a oportunidade de trabalhar em projetos desafiadores e inovadores na área de engenharia de dados, utilizando tecnologias como Apache Spark, Delta Lake e Databricks.
">
Responsáveis pelo desenvolvimento de soluções de streaming em tempo real com Kafka, Event Hubs, Flink e Spark Streaming, bem como implementação de observabilidade, qualidade e linhagem de dados com ferramentas como Great Expectations, Monte Carlo e Unity Catalog.
Também será necessário melhorar o desempenho de consultas e estratégias de particionamento em ambientes analíticos baseados em nuvem.
">
Além disso, há a possibilidade de trabalhar em conjunto com times DevOps para CI/CD de pipelines com Terraform, GitHub Actions ou Azure DevOps.
e construir integrações via APIs GraphQL, REST ou gRPC com serviços internos e externos.
">
No entanto, é importante notar que essa posição exige uma profunda experiência em linguagens de programação, incluindo Python, e habilidades avançadas em banco de dados e sistemas de informação geoespaciais.
">
Você também precisará ter conhecimento em práticas de segurança de dados, incluindo RBAC, ABAC e criptografia.
Além disso, é fundamental ter experiência em sistemas de informação geoespacial e conhecimento em sistemas de informação geoespacial.
">
Comece sua jornada aqui!
">