Desenvolva sua carreira em um ambiente de transformação digital avançado.
Nossa empresa é conhecida por ser um dos melhores lugares para trabalhar, segundo GPTW e Glassdoor.
Aqui, você encontrará oportunidades de crescimento profissional em uma cultura descontraída e diversa.
O que procuramos?
* Pessoas motivadas por desafios e constantes melhorias.
* Experiência avançada em serviços de dados da AWS (S3, Redshift, EMR, Glue, Lambda, Athena) e da GCP (BigQuery, Dataflow, Pub/Sub, Dataproc).
* Proficiência avançada em Python e experiência comprovada em Pyspark/Spark.
* Experiência com Apache Airflow (criação e manutenção de DAGs). Forte experiência em CI/CD (Jenkins, AWS CodePipeline, Google Cloud Build ou similares).
Responsabilidades:
* Projetar, implementar e manter pipelines e arquiteturas de dados em ambiente multicloud (AWS, GCP e OCI), com foco em AWS e GCP.
* Desenvolver integrações e processamentos de dados utilizando Pyspark e Spark. Orquestrar workflows de dados complexos com Apache Airflow.
* Criar, manter e evoluir pipelines de CI/CD (Jenkins, AWS CodePipeline, Google Cloud Build, etc.).
Benefícios:
* Plano de Saúde; Plano Odontológico; Seguro de Vida; Vale Refeição; Vale Alimentação; Horário Flexível; Atuação híbrida;
* Gympass, Telemedicina, Telenutrição, Canal de suporte emocional 24h e muito mais.
Cultura:
No nosso modelo de trabalho Anywhere Office, você terá autonomia para criar seu próprio plano de desenvolvimento profissional.
Aqui, você poderá:
* Seguir a trilha de crescimento técnico, se o seu objetivo for se desenvolver cada vez mais em diferentes tecnologias.
* Ser um líder, desenvolver pessoas, auxiliar na evolução profissional e pessoal e estimular o crescimento para o surgimento de novos talentos.
* Atuar em projetos internacionais ou diretamente nos países onde a empresa tem sede.
Você quer fazer parte disso? Inscreva-se no nosso canal do Youtube!