Desenvolver e manter pipelines de dados (ETL/ELT); Atuar na modelagem e arquitetura de dados; Integrar diferentes fontes de dados; Garantir qualidade, integridade e disponibilidade dos dados; Apoiar times de BI e Analytics. Requisitos: Graduação em Ciência da Computação, Engenharia da Computação, Engenharia Elétrica, Sistemas de Informação, Estatística, Matemática ou áreas afins. Conhecimento sólido em linguagens para manipulação de dados: SQL avançado e Python Experiência em SQL Server, PostgreSQL, MySQL, ETL/ELT, Airflow, Databricks, Spark, Kafka, Git, CI/CD, Azure ou GCP e seus serviços de dados, LGPD, políticas de acesso e criptografia. Serão considerados diferenciais: Experiência com Data Lakes, Lakehouse, Delta Lakes e ferramentas de orquestração LI-Onsite