Vaga de Engenheiro(a) de Dados Sênior – Remoto
Procuramos alguém para projetar e otimizar pipelines ETL/ELT de alta performance.
Responsabilidades:
* Projeto de pipelines de ingestão e análise de dados OSINT;
* Criar fluxos de enriquecimento com NLP, tradução automática, NER e resolução de entidades;
* Processamento de grandes volumes de dados com Apache Spark, Delta Lake e Databricks;
* Gestão de soluções de dados no Azure, incluindo Data Factory, Synapse, Databricks e AKS;
* Desenvolvimento de soluções de streaming em tempo real com Kafka, Event Hubs, Flink e Spark Streaming;
Requisitos Essenciais:
* Inglês avançado (C1);
* Experiência em engenharia de dados, processamento de big data e soluções em nuvem;
* Conhecimento avançado em serviços Azure, como Databricks, Synapse Analytics, Data Lake Storage (ADLS) e Azure Functions;
* Domínio de Apache Spark, PySpark e Scala para processamento de dados em larga escala;
* Familiaridade com arquiteturas Lakehouse, Delta Lake e modelos de dados em camadas (Medallion);
* Sólido entendimento de frameworks ETL/ELT, data warehousing e estratégias de evolução de esquemas;
* Proficiência em SQL, NoSQL e bancos de dados de grafos (ex: PostgreSQL, Cosmos DB, Neo4j, Redis);
* Vivência com conteinerização e orquestração usando Docker, Kubernetes e Helm;
* Conhecimento em frameworks de processamento de fluxo, como Apache Flink, ksqlDB ou Apache Beam;
* Experiência com práticas de segurança de dados, incluindo RBAC, ABAC e criptografia;
* Domínio da linguagem Python e boas práticas de testes com PyTest ou ferramentas similares;
Benefícios:
* Vale Alimentação ou Vale Refeição Ifood Empresas;
* Benefício indireto (valor fixo para custeio parcial do plano de saúde ou somado ao vale alimentação);
* Desconto em cursos, universidades e instituições de idiomas;
* Auxílio Creche;
* Assistência Médica;
* Assistência Odontológica;
* Convênio para Pet;
O que você recebe:
* Treinamento contínuo;
* Plataforma de desenvolvimento profissional;
* Possibilidade de crescimento;
* Trabalho remoto;