Escolaridade: Ensino superior completo em em Ciência da Computação, Sistemas de Informação, Engenharia da Computação ou áreas correlatas.Conhecimentos específicos: Experiência em engenharia de dados ou áreas correlatasSQL avançado: CTEs, window functions, otimização de queries, DDL/DMLPython intermediário a avançado para manipulação de dados (pandas, etc.)Experiência com construção de pipelines ETL/ELTConhecimento de modelagem de dados dimensional (star schema, snowflake schema)Noções de qualidade de dados e testes de pipelineCapacidade de trabalhar com autonomia em tarefas de média complexidadeDesejável: · Experiência com plataformas cloud de dados (Databricks, Snowflake, BigQuery ou similares)· Conhecimento de ferramentas de orquestração (Airflow, Prefect, Dagster ou similares)· Familiaridade com controle de versão (Git) e práticas de CI/CD para dados· Experiência com bancos de dados relacionais e não-relacionais· Noções de conteinerização (Docker) Projetar, desenvolver e manter pipelines de dados (ETL/ELT) para ingestão e transformação de dadosImplementar e manter modelos de dados (star schema) otimizados para consumo analíticoEscrever e otimizar consultas SQL para processamento de grandes volumes de dadosDesenvolver scripts em Python para automação de processos de dadosMonitorar a qualidade dos dados através de validações e testes automatizados Colaborar com Analistas de BI e Cientistas de Dados para garantir disponibilidade e confiabilidade dos dados