Responsabilidades PrincipaisProjetar, construir e manter pipelines ETL/ELT que coletam, transformam e integram dados de múltiplos sistemas (ex.: ERP, CRM, APIs, arquivos, fontes em nuvem).Automatizar processos de ingestão, transformação e distribuição de dados, garantindo fluxos de trabalho autossuficientes, reprodutíveis e escaláveis.Orquestrar e monitorar rotinas de dados utilizando Azure Data Factory ou Synapse, garantindo estabilidade e confiabilidade em todas as operações de dados.Desenvolver e otimizar modelos de dados e ambientes de staging para suportar necessidades analíticas e operacionais.Implementar automações básicas usando Power Automate para acionar fluxos de dados, mover arquivos ou integrar processos entre aplicações de negócios e componentes do Azure.Garantir qualidade e integridade dos dados, implementando mecanismos de validação, logs e tratamento de erros.Colaborar com equipes multifuncionais (Analytics, Negócios, TI) para traduzir requisitos de negócios em soluções robustas de arquitetura de dados.Gerenciar recursos em nuvem Azure relacionados a armazenamento, computação e orquestração (ex.: Azure Blob Storage, Synapse, Data Lake, Data Factory).Documentar processos, fluxos de dados e arquitetura para garantir manutenção e compartilhamento de conhecimento entre times regionais e globais.Monitorar e otimizar o desempenho de pipelines e consultas SQL.Qualificações ObrigatóriasExperiência comprovada em Engenharia de Dados, desenvolvimento ETL/ELT ou funções de Integração de Dados.Forte domínio de Python para processamento de dados, automação e integração via API.SQL avançado para consultas, transformações e otimização.Experiência prática com serviços Azure (Data Factory, Synapse, Blob Storage, Functions, etc.).Familiaridade com Microsoft Power Automate para automação básica de processos e fluxos de dados.Experiência com orquestração e automação de dados.Familiaridade com formatos estruturados e não estruturados (CSV, Parquet, JSON, XML etc.).Excelentes habilidades de troubleshooting e resolução de problemas, com alta atenção aos detalhes.Boa comunicação em inglês e espanhol ou português, com capacidade de colaborar com equipes multiculturais.Qualificações DesejáveisExperiência com arquiteturas de data lakehouse e pipelines orientados a metadados.Conhecimento de APIs, integração REST e ingestão de dados web.Familiaridade com práticas DevOps (CI/CD, Git etc.).Experiência em governança de dados, segurança ou compliance.Vivência em ambientes multinacionais ou ecossistemas de dados de consumo/varejo.#LI-Hybrid