📢 VAGA ABERTA: Engenheiro(a) de Dados Sênior – Remoto
Em busca de uma carreira em uma empresa que valoriza a flexibilidade, desenvolvimento pessoal e sucesso da equipe? Com 28 anos de experiência e reconhecidos pelo GPTW pelo quinto ano consecutivo, estamos em busca de talentos para se juntarem a nós como Engenheiro(a) de Dados. Com matriz no Brasil e filiais em território internacional, oferecemos oportunidades para crescimento e desenvolvimento. Candidate-se agora e faça parte de uma equipe que transforma negócios e realiza sonhos!
Requisitos essenciais:
* Inglês em nível avançado (C1);
* Experiência com engenharia de dados, processamento de big data e soluções em nuvem;
* Conhecimento avançado em serviços Azure, como Databricks, Synapse Analytics, Data Lake Storage (ADLS) e Azure Functions;
* Domínio de Apache Spark, PySpark e Scala para processamento de dados em larga escala;
* Familiaridade com arquiteturas Lakehouse, Delta Lake e modelos de dados em camadas (Medallion);
* Sólido entendimento de frameworks ETL/ELT, data warehousing e estratégias de evolução de esquemas;
* Proficiência em SQL, NoSQL e bancos de dados de grafos (ex: PostgreSQL, Cosmos DB, Neo4j, Redis);
* Vivência com conteinerização e orquestração usando Docker, Kubernetes e Helm;
* Conhecimento em frameworks de processamento de fluxo, como Apache Flink, ksqlDB ou Apache Beam;
* Experiência com práticas de segurança de dados, incluindo RBAC, ABAC e criptografia;
* Domínio da linguagem Python e boas práticas de testes com PyTest ou ferramentas similares.
Requisitos adicionais:
* Inglês nível C2;
* Conhecimento em sistemas de informação geoespacial;
* Experiência com pipelines de machine learning utilizando MLflow ou Kubeflow (MLOps);
* Noções de análise de grafos e links aplicadas a fluxos de inteligência.
Responsabilidades:
* Projetar e otimizar pipelines ETL/ELT de alta performance para ingestão e análise de dados OSINT;
* Criar fluxos de enriquecimento com NLP, tradução automática, NER e resolução de entidades;
* Processar grandes volumes de dados com Apache Spark, Delta Lake e Databricks;
* Gerenciar soluções de dados no Azure, incluindo Data Factory, Synapse, Databricks e AKS;
* Desenvolver soluções de streaming em tempo real com Kafka, Event Hubs, Flink e Spark Streaming;
* Implementar observabilidade, qualidade e linhagem de dados com ferramentas como Great Expectations, Monte Carlo e Unity Catalog;
* Melhorar o desempenho de consultas e estratégias de particionamento em ambientes analíticos baseados em nuvem;
* Trabalhar em conjunto com times DevOps para CI/CD de pipelines com Terraform, GitHub Actions ou Azure DevOps;
* Aplicar diretrizes de segurança como NIST, FedRAMP e Zero Trust para proteção e governança dos dados;
* Construir integrações via APIs GraphQL, REST ou gRPC com serviços internos e externos.
Nossos cuidados com você:
*Benefícios a variar de acordo com a modalidade de contrato
🍛 Vale Alimentação ou Vale Refeição Ifood Empresas;
💰 Benefício indireto (valor fixo para custeio parcial do plano de saúde ou somado ao vale alimentação);
👨🏼🎓 Desconto em cursos, universidades e instituições de idiomas;
📚 Academia Sys Manager - plataforma com cursos online, gratuitos, atualizados e com certificado;
🏫 Auxílio Creche;
🏥 Assistência Médica;
🦷 Assistência Odontológica;
🐶 Convênio para Pet;
🏃♂️ TotalPass
🏖 Day Off após 12 meses;
🙎♂️ Seguro de vida e outros.
Conheça mais sobre nós:
* Site: https://www.sysmanager.com.br/
* Facebook: https://www.facebook.com/sys.manager
* Youtube: https://www.youtube.com/channel/UCrwuUug_3uPgppslLG0dUPA
* Instagram: https://www.instagram.com/sys.manager/