Capacidade de estimar prazos e apoiar na construção de planejamentos, trazendo visão técnica para dimensionamento das tarefas;Habilidade para transformar necessidades de negócio em modelos de dados eficientes e aderentes aos objetivos estratégicos.Experiência com bancos de dados relacionais (SQL) e não relacionais/colunares;Domínio de linguagens como Python, Java ou Scala para processamento distribuído;Conhecimento em modelagem de dados (Star Schema);Experiência em processos ETL e orquestração de jobs no Databricks;Vivência em tratamento e integração de dados (APIs, bancos, arquivos, cloud storages), utilizando ferramentas como pandas, PySpark, SparkR ou PL/SQL;Experiência em projetos de Data Lake;Desenvolver e manter pipelines de dados (ETL) robustos e escaláveis, seguindo as melhores práticas de engenharia e modelagem de dados;Construir e sustentar bases de dados para atender objetivos de negócio e requisitos regulatórios;Criar e manter processos de monitoramento contínuo da qualidade dos dados, implementando validações automáticas e sistemas de alertas para identificar e notificar inconsistências, anomalias ou falhas nos pipelines;Conduzir a migração de dados legados para o Databricks, garantindo integridade, performance e governança;Colaborar com analistas e áreas parceiras para garantir entendimento das regras de negócio e consistência dos dados.Apoiar na evolução da arquitetura de dados, avaliando e implementando novas ferramentas e processos;