Engenharia de Dados AWS Pleno - 122371
Francisco Beltrão, Paraná GFT Technologies
Descrição Do Trabalho
Sobre a vaga
Com mais de 35 anos de mercado e localizada em 16 países, a GFT emprega mais de 10.000 pessoas ao redor do mundo sendo 3.000 pessoas no Brasil.
Aqui, a diversidade, a igualdade e a inclusão estão no centro e garantir um ambiente de trabalho seguro para todas as pessoas faz parte de quem somos.
Promovemos uma cultura de desenvolvimento e crescimento pautadas no nosso pilar de Continuous Scaled Learning porque acreditamos o uso inteligente da tecnologia é a chave para o sucesso nesse mundo digital.
Engenharia de Dados AWS Sênior - ID
Requisitos:
Este vaga precisa de inglês avançado. Envolve gestão de dados, ingestão, modelos de dados, pipelines, e governança. Experiência em AWS (S3, Glue, Redshift, Lambda, Athena, DynamoDB, KMS, IAM) e em ferramentas de ETL/ELT (Python, Spark). Experiência com Databricks, Airflow ou similar, e com bancos SQL/NoSQL (PostgreSQL, MySQL, MongoDB, DynamoDB). Familiaridade com pipelines CI/CD (GitHub Actions, CodePipeline).
Descrição comportamental:
Procuramos uma pessoa que:
* Goste de trabalhar em equipe e seja colaborativa;
* Tenha coragem para se desafiar e crescer;
* Transforme ideias em soluções criativas e busque qualidade;
* Tenha habilidades de resolução de problemas;
* Consiga trabalhar de forma independente e gerenciar o próprio tempo;
* Tenha interesse em lidar com situações adversas e inovadoras.
O que oferecemos:
* Cartão multi-benefícios – você escolhe como e onde utilizar;
* Bolsas de estudos para Graduação, Pós, MBA e Idiomas;
* Programas de incentivo à certificações;
* Horário de trabalho flexível;
* Plano de carreira com possibilidade de atuação internacional;
* Salários competitivos;
* Avaliação de desempenho anual com bonificação;
* Previdência privada; assistência médica; assistência odontológica.
Engenheiro de Dados AWS Pleno/Sênior - ID 123360
Francisco Beltrão, Paraná GFT Technologies
Descrição Do Trabalho
Sobre a vaga
Engenheiro de dados com sólidos conhecimentos em Python, SQL, Scala, Pyspark, e Shell Script. Envolve arquitetura de dados, ETL/ELT, processamento distribuído, modelagem de dados e governança, com atuação em AWS (S3, Glue, Redshift, Lambda, Athena, KMS, API Gateway, EMR, Lake Formation) e ferramentas de orquestração (Airflow/DAGs) em ambientes de grande escala.
Requisitos:
* Python, SQL, Scala, PySpark, Shell Script.
* Experiência com DataMesh, data lake/warehouse, ETL/ELT, Spark, Databricks.
* AWS (Storage, DMS, Lambda, Glue, Redshift, API Gateway, Lake Formation, EMR, CloudFormation/CodePipeline).
* Containers (Docker, Kubernetes); DevOps (GitLab CI, Puppet).
* APIs REST; segurança e governança de dados.
Descrição comportamental:
Procuramos uma pessoa que:
* Goste de trabalhar em equipe e seja colaborativa;
* Tenha coragem para se desafiar e crescer;
* Busque soluções criativas e qualidade no trabalho;
* Seja pró-ativo com foco em resultados;
* Consegua gerir o tempo de forma independente;
* Abra espaço para inovação tecnológica.
O que oferecemos:
* Benefícios diversos, incluindo assistência médica/odontológica; planos de previdência e incentivo à certificação.
Engenheiro de Dados Pleno - ID 122371
Francisco Beltrão, Paraná GFT Technologies
Descrição e requisitos combinam com o item anterior, incluindo foco em AWS, Python, Airflow, ETL/ELT, e governança de dados; experiência com Data Lakes/Warehouses e governança; CI/CD e segurança.
Especialista em Engenharia de Dados | Remoto
Francisco Beltrão, Paraná Sem Parar
Descrição Do Trabalho
Local de trabalho: São Paulo
Modelo de trabalho: Remoto
Responsabilidades e atribuições
* Ser referência técnica para o time de Engenharia de Dados, promovendo o desenvolvimento contínuo;
* Liderar padronização de pipelines e bibliotecas;
* Interagir com áreas de origem de dados para alinhamento de governança;
* Gerir custos de recursos de dados;
* Migrar ambientes legados para novas infraestruturas;
* Garantir qualidade, escalabilidade, observabilidade e manutenibilidade.
É imprescindível que você tenha:
* Boa comunicação e trabalho em equipe;
* Proatividade e vontade de aprender;
* Visão orientada a resultados e priorização estratégica;
* Arquitetura de dados e modelagem (Data Lake/Warehouse/Data Mart);
* Dados distribuídos e processamento paralelo (Spark, Databricks);
* ETL/ELT e orquestração (Airflow);
* Conhecimentos em AWS/GCP; Terraform; APIs REST; segurança e governança de dados.
Informações adicionais
Benefícios:
* Assistência médica/odontológica; cartão multi-benefícios; vale-refeição/alimentação; day-off de aniversário; licença paternidade; auxílio creche.
#J-18808-Ljbffr