VAGA ABERTA
Engenheiro(a) de Dados Sênior – Remoto
Falta-lhe um ambiente de trabalho que valorize a flexibilidade e o sucesso da equipe?
Com 28 anos de experiência, estamos em busca de talentos para se juntarem como Engenheiro(a) de Dados .
A nossa empresa matriz está localizada no Brasil e tem filiais internacionais. Oferecemos oportunidades para crescimento e desenvolvimento.
Candidatarse à vaga agora e faça parte de uma equipe que transforma negócios e realiza sonhos
Requisitos Essenciais:
Inglês avançado (C1); Experiência em engenharia de dados, processamento de big data e soluções em nuvem; Conhecimento avançado em serviços Azure, como Databricks, Synapse Analytics, Data Lake Storage (ADLS) e Azure Functions; Domínio de Apache Spark, PySpark e Scala para processamento de dados em larga escala; Familiaridade com arquiteturas Lakehouse, Delta Lake e modelos de dados em camadas (Medallion); Sólido entendimento de frameworks ETL/ELT, data warehousing e estratégias de evolução de esquemas; Proficiência em SQL, NoSQL e bancos de dados de grafos (ex: PostgreSQL, Cosmos DB, Neo4j, Redis); Vivência com conteinerização e orquestração usando Docker, Kubernetes e Helm; Conhecimento em frameworks de processamento de fluxo, como Apache Flink, ksqlDB ou Apache Beam; Experiência com práticas de segurança de dados, incluindo RBAC, ABAC e criptografia; Domínio da linguagem Python e boas práticas de testes com PyTest ou ferramentas similares.
Requisitos Adicionais:
Inglês nível C2; Conhecimento em sistemas de informação geoespacial; Experiência com pipelines de machine learning utilizando MLflow ou Kubeflow (MLOps); Noções de análise de grafos e links aplicadas a fluxos de inteligência .
Responsabilidades:
Projetar e otimizar pipelines ETL/ELT de alta performance para ingestão e análise de dados OSINT; Criar fluxos de enriquecimento com NLP, tradução automática, NER e resolução de entidades; Processar grandes volumes de dados com Apache Spark, Delta Lake e Databricks; Gerenciar soluções de dados no Azure, incluindo Data Factory, Synapse, Databricks e AKS; Desenvolver soluções de streaming em tempo real com Kafka, Event Hubs, Flink e Spark Streaming; Implementar observabilidade, qualidade e linhagem de dados com ferramentas como Great Expectations, Monte Carlo e Unity Catalog; Melhorar o desempenho de consultas e estratégias de particionamento em ambientes analíticos baseados em nuvem; Trabalhar em conjunto com times DevOps para CI/CD de pipelines com Terraform, GitHub Actions ou Azure DevOps; Aplicar diretrizes de segurança como NIST, FedRAMP e Zero Trust para proteção e governança dos dados; Construir integrações via APIs GraphQL, REST ou gRPC com serviços internos e externos.
Nossos Cuidados com Você:
*Benefícios variáveis de acordo com a modalidade de contrato;
Benefício indireto (valor fixo para custeio parcial do plano de saúde ou somado ao vale alimentação);
Desconto em cursos, universidades e instituições de idiomas;
Academia Sys Manager - plataforma com cursos online, gratuitos, atualizados e com certificado;
Auxílio Creche;
Assistência Médica;