Formação:Superior completo, porém todos os cursos são bem-vindos!Competências esperadas:Fluência em Python, com experiência em manipulação e análise de dados.Forte conhecimento em SQL para construção de consultas e validações de dados.Experiência com ferramentas de versionamento de código, como Git.Familiaridade com conceitos de ETL/ELT e arquiteturas de dados.Capacidade analítica para identificar e solucionar problemas complexos de dados.Habilidade de documentação clara e organizada. Competências desejáveis:Conhecimento em ferramentas de orquestração de dados, como Apache Airflow ou Prefect.Experiência com plataformas de nuvem (AWS e Google Cloud).Noções de monitoramento e observabilidade de pipelines de dados.Familiaridade com frameworks de testes de dados, como DBT.Experiência em projetos com metodologias ágeis.Habilidades interpessoais para trabalho em equipe e comunicação com stakeholders técnicos e não técnicos.HERE TO DAREPrincipais atividades:Realizar testes automatizados e manuais em pipelines de dados para garantir a qualidade e integridade das informações.Validar e documentar o funcionamento de processos de ETL/ELT.Analisar, diagnosticar e resolver inconsistências ou falhas nos fluxos de dados.Criar e implementar scripts em Python para automação de validações e monitoramento.Desenvolver queries SQL para análise, validação e extração de dados.Participar de revisões de código e garantir boas práticas no desenvolvimento de pipelines de dados.Colaborar com equipes de engenharia e negócios para alinhar requisitos e garantir entregas assertivas