 
        
        Filtro de Dados para Área de Petróleo e Gás
A Dexian é uma empresa global com quase 30 anos de experiência no mercado. Nossa presença nos estados brasileiros começa em 2007, como DISYS, e desde então conquistamos mais de 60 clientes de diferentes setores da economia. Como Dexian, somos uma das maiores empresas de soluções de staffing, soluções de TI e complementação de força de trabalho.
Desenvolvemos serviços exclusivos que combina escala global, projetos de serviço completo e agilidade tática para modernizar modelos de contratação. Apoiamos nossos clientes para encontrar a melhor maneira que seu gap de talentos seja endereçado, suportando assim seu processo de transformação digital.
Estamos sempre próximos dos nossos clientes e consultores, pois contamos com escritórios estrategicamente localizados em quatro grandes capitais: Curitiba (PR), Porto Alegre (RS), Rio de Janeiro (RJ) e São Paulo (SP).
Apresentamos um compromisso de atrair e reter os melhores talentos e construir conexões reais para a vida. Então, atuamos como ponte entre profissionais altamente qualificados e oportunidades consistentes e prósperas.
Nossa missão é trazer o talento, a tecnologia e as organizações certas juntos, desbloquear resultados transformadores e alcançar novos níveis de sucessos para os clientes que atendemos e os consultores que contratamos.
Nossos cinco valores fundamentais são: Integridade, Transparência, Autenticidade, Engenhosidade e Empatia.
Também estamos comprometidos com a responsabilidade social corporativa e investimos em programas que apoiam a diversidade e inclusão.
Se você compartilha desses mesmos valores, aqui é seu lugar!
Em nosso cliente:
Você irá atender uma grande multinacional do segmento de petróleo e gás.
Educação e Experiência:
 * Projetar, desenvolver e manter pipelines de dados escaláveis utilizando Apache Hadoop, Spark e Kafka;
 * Implementar processos de ETL e integração de dados de múltiplas fontes (internas e externas);
 * Trabalhar com grandes volumes de dados estruturados e não estruturados para habilitar análises em escala;
 * Otimizar e ajustar jobs Spark e Hadoop para melhor performance;
 * Atuar com CDP (Cloudera Data Platform) para deploy e gerenciamento de aplicações Big Data;
 * Integrar soluções com Azure, Snowflake e infraestrutura on-premises; ou alternativas do Kubernetes.
Requisitos técnicos:
 * Formação: Bacharelado em Ciência da Computação ou áreas correlatas | GPA mínimo: 6.5/10;
 * Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop;
 * Linguagens: Scala, Java e/ou Python;
 * Framework e Ferramenta: Hive, Iceberg, HBase, Solr, Kafka, Spark Streaming ou Apache Flink, Oozie (Airflow é diferencial);
 * Sistema: Sistemas UNIX/Linux;
 * Git, GitHub, DevOps (desejável Azure DevOps); ou alternativas do Kubernetes;
 * Cloud: Experiência com Azure (desejável conhecimento em AWS);
Soft Skills:
 * Excelente comunicação verbal e escrita (Inglês avançado é mandatório);
 * Perfil proativo, autônomo e colaborativo;
 * Forte capacidade analítica e de resolução de problemas complexos;
 * Facilidade para trabalhar em times ágeis (Scrum) e ambientes multifuncionais;
 * Habilidade de interface com áreas de negócio, arquitetura e desenvolvimento técnico;
 * Capacidade de documentar soluções e boas práticas de forma clara e objetiva;