Formação em nível superior completa;Experiência em engenharia de dados e ambientes Big Data;Conhecimento avançado em Python;Conhecimento avançado em Java e/ou Groovy;Conhecimento intermediário em Git/GitLab para versionamento de código;Conhecimento em SQL e bancos de dados relacionais como Oracle e/ou MySQL;Experiência com Spark (batch e streaming) utilizando PySpark e/ou Scala;Vivência com ferramentas de ecossistema Big Data, como: NiFi, Kafka, Airflow, HDFS, Hive, HBase, Iceberg, Kudu, Impala, Trino ou Redis;Experiência com arquiteturas distribuídas e processamento de dados em larga escala;Habilidade em planejamento técnico e trabalho em projetos de dados;Capacidade de resolução de problemas complexos;Inteligência emocional, trabalho em equipe, liderança e proatividade;Perfil orientado a aprendizado contínuo e evolução técnica.Planejar, desenvolver e implantar pipelines de dados para ingestão de grandes volumes de dados em ambientes Big Data / Data Lake;Monitorar, acompanhar e realizar resolução de problemas em pipelines de dados;Planejar e executar atividades de saneamento, tratamento e qualidade de dados;Desenvolver, testar e manter arquiteturas de bancos de dados e sistemas de processamento de dados em tempo real e/ou distribuídos;Criar e implementar métodos e técnicas para melhoria da eficiência, qualidade e confiabilidade dos dados;Propor melhorias, ajustes e otimizações em processos de dados por meio de novas ferramentas ou metodologias;Realizar documentação técnica, incluindo descrição, conceituação de dados e gestão de metadados;Atuar na administração, governança e segurança dos dados;Apoiar o planejamento técnico de projetos de dados, contribuindo para a evolução das soluções e arquitetura.