Na área de análise de dados, trabalhamos com uma mentalidade colaborativa. Co-criamos soluções inovadoras em parceria com nossos clientes, combinando tecnologia avançada e criatividade humana. Nossa missão é resolver problemas de negócios complexos e proporcionar impacto real em escala global.
Ao se juntar a nossa equipe, você participa de uma jornada global de transformação. Estamos comprometidos em criar um ambiente positivo não apenas nos negócios, mas também na vida de nossos funcionários. Se você procura uma oportunidade de crescimento profissional em uma empresa que valoriza inovação, respeito e autonomia, você encontrará aqui
O cargo de Cientista de Dados exige:
1. Ensino superior completo em Tecnologia da Informação ou áreas correlatas;
2. Experiência anterior na função de Cientista de Dados;
3. Dominio de SQL para manipulação de grandes volumes de dados;
4. Conhecimentos sólidos em Python e/ou PySpark, com foco em análise e modelagem de dados;
5. Experiência com processos de extração, transformação e carga de dados (ETL), incluindo tratamento e limpeza;
6. Conhecimento em estatística aplicada e interpretação de métricas e testes estatísticos;
7. Vivência em projetos de análise de dados massivos (big data);
8. Experiência prática com técnicas de data mining e aplicação de modelos de machine learning (classificação, regressão, clustering, etc.);
9. Conhecimento em ferramentas de visualização de dados, com destaque para Microsoft Power BI;
10. Bom relacionamento interpessoal e capacidade de traduzir dados em insights acionáveis;
11. Foco em solução de problemas e tomada de decisão orientada por dados;
Os benefícios incluem:
* Vale Alimentação ou Vale Refeição;
* Desconto em cursos, universidades e instituições de idiomas;
* Academia Stefanini - plataforma com cursos online, gratuitos, atualizados e com certificado;
* Mentoring;
* Clube de vantagens para consultas e exames;
* Assistência Médica;
* Assistência Odontológica;
* Clube de viagens;
* Convênio para Pet;
Nossos diferenciais incluem conhecimento em ecossistemas de Big Data, como Apache Hive, Hadoop, MapReduce e Apache Spark; experiência com plataforma Databricks para desenvolvimento e execução de pipelines de dados; e vivência com metodologias ágeis em projetos de ciência de dados ou engenharia de dados.