Aqui, compartilhamos uma oportunidade incrível para alguém que busque construir soluções escaláveis, automatizadas e resilientes em um ambiente multicloud.
* Procuramos alguém apaixonado por tecnologia, inovação e transformação para projetar, implementar e manter pipelines de dados em ambiente multicloud (AWS, GCP e OCI), com foco em AWS e GCP.
* O ideal é que tenha experiência avançada em serviços de dados da AWS (S3, Redshift, EMR, Glue, Lambda, Athena) e da GCP (BigQuery, Dataflow, Pub/Sub, Dataproc).
* Além disso, a proficiência em Python e experiência comprovada em Pyspark/Spark são fundamentais.
Certificações:
* Certificações AWS e/ou GCP são consideradas diferenciais nessa oportunidade.
Responsabilidades:
* Projetar, implementar e manter pipelines de dados em ambiente multicloud;
* Desenvolver integrações e processamentos de dados utilizando Pyspark e Spark;
* Criar, manter e evoluir pipelines de CI/CD;
* Automatizar infraestrutura e recursos de dados;
* Desenvolver, containerizar e gerenciar aplicações de dados;
* Atuar na definição de arquitetura, padrões de desenvolvimento, governança e segurança dos dados;
Nossa equipe valoriza profissionais proativos, motivados e apaixonados por tecnologia e inovação. Se você está procurando por uma oportunidade desafiadora e gratificante, é aqui que precisa estar.
Ambiente de trabalho:
* Ambiente multicloud (AWS, GCP e OCI), com foco em AWS e GCP;
* Tecnologias como Pyspark, Spark, Apache Airflow e Terraform;