Quer uma carreira em dados que transforme negócios e realize sonhos?
Sobre a Função
Nós buscamos um Engenheiro(a) de Dados Sênior para fazer parte da nossa equipe. Com matriz no Brasil e filiais em território internacional, oferecemos oportunidades para crescimento e desenvolvimento.
Responsabilidades
* Projetar e otimizar pipelines ETL/ELT de alta performance para ingestão e análise de dados OSINT;
* Criar fluxos de enriquecimento com NLP, tradução automática, NER e resolução de entidades;
* Processar grandes volumes de dados com Apache Spark, Delta Lake e Databricks;
* Gerenciar soluções de dados no Azure, incluindo Data Factory, Synapse, Databricks e AKS;
* Desenvolver soluções de streaming em tempo real com Kafka, Event Hubs, Flink e Spark Streaming;
* Implementar observabilidade, qualidade e linhagem de dados com ferramentas como Great Expectations, Monte Carlo e Unity Catalog;
* Melhorar o desempenho de consultas e estratégias de particionamento em ambientes analíticos baseados em nuvem;
* Trabalhar em conjunto com times DevOps para CI/CD de pipelines com Terraform, GitHub Actions ou Azure DevOps;
* Apliquer diretrizes de segurança como NIST, FedRAMP e Zero Trust para proteção e governança dos dados;
* Construir integrações via APIs GraphQL, REST ou gRPC com serviços internos e externos;
Requisitos Adicionais
* Inglês nível C2;
* Conhecimento em sistemas de informação geoespacial;
* Experiência com pipelines de machine learning utilizando MLflow ou Kubeflow (MLOps);
* Noções de análise de grafos e links aplicadas a fluxos de inteligência;
Benefícios
* Vale Alimentação ou Vale Refeição Ifood Empresas;
* Benefício indireto (valor fixo para custeio parcial do plano de saúde ou somado ao vale alimentação);
* Desconto em cursos, universidades e instituições de idiomas;
* Academia Sys Manager - plataforma com cursos online, gratuitos, atualizados e com certificado;
* Auxílio Creche;
* Assistência Médica;
* Assistência Odontológica;
* Convênio para Pet;
* TotalPass;
* Day Off após 12 meses;
* Seguro de vida e outros;
Tecnologias Utilizadas
* Apache Spark;
* Delta Lake;
* Databricks;
* Python;
* PySpark;
* Scala;
* Kafka;
* Event Hubs;
* Flink;
* Spark Streaming;
* Data Factory;
* Synapse;
* AKS;
* Great Expectations;
* Monte Carlo;
* Unity Catalog;
* Terraform;
* GitHub Actions;
* Azure DevOps;
* NIST;
* FedRAMP;
* Zero Trust;
* GraphQL;
* REST;
* gRPC;