O profissional será responsável pela extração, transformação e carga (ETL/ELT) dos dados que abastecem o Lakehouse no Databricks. Atuar na automação de pipelines, qualidade de dados e integração entre sistemas transacionais (ERPs) e camadas analíticas.Responsabilidades:Construir e otimizar pipelines de ingestão e transformação de dados no DatabricksIntegrar múltiplas fontes de dados (Senior, Iniflex, GI, Metrics)Implementar rotinas de Data Quality e observabilidadeDesenvolver jobs em PySpark, SQL e Delta Live TablesAutomatizar deploys e versionamento via Git e CI/CDColaborar com o Arquiteto para manter padrões técnicos e de performanceModelo de trabalho híbrido, sendo de 2 a 3x por semana no escitorio do clienteLocal: Prox ao Shopping Morumbi - São Paulo/SDRequisitos:Experiência comprovada em Databricks / Spark / Delta LakeProficiência em Python, SQL avançado e ETLExperiência com pipelines batch e streamingConhecimento em integrações ERP (APIs, arquivos, bancos relacionais)Experiência com monitoramento de jobs e alertasFormação em Ciência da Computação, Engenharia, ou áreas correlatas à tecnologia;Experiência comprovada em Databricks, Power BI, Power Apps, Python, PySpark e SQL.Conhecimento sólido em lógica de programação e consistência de dadosDiferenciais:Experiência com Delta Live Tables, Unity Catalog ou MLflowVivência com Azure Data Factory, Synapse ou AirflowSoft SkillsFoco em resolução de problemas e performanceMentalidade DevOps e de automaçãoBoa comunicação e trabalho em equipe