É muito importante que você tenha e/ou saiba:Experiência sólida em engenharia de dados (mínimo 6 anos);Domínio de Spark (PySpark ou Scala) em ambientes distribuídos;Experiência com Databricks e Delta Lake;Conhecimentos avançados em SQL e modelagem de dados (Kimball, Data Vault, etc);Experiência com clouds (Azure ou AWS), especialmente com serviços de dados;Conhecimento em orquestração de pipelines (ex: Airflow, ADF, Databricks Jobs);Familiaridade com CI/CD, versionamento de código (Git) e boas práticas de software;Experiência com armazenamento de dados em nuvem (Blob Storage, S3, GCS);Noções de segurança e governança de dados (ex: Unity Catalog, IAM, RBAC).Desejáveis (diferenciais)Experiência com MLOps e integração com modelos de machine learning;Conhecimento em Feature Store, MLflow, ou pipelines de modelagem;Vivência com ferramentas como dbt, Terraform, Docker;Experiência em ambientes regulados (financeiro, saúde, etc);Participação em squads multidisciplinares com cultura ágil.Os desafios da função são:Projetar, construir e manter pipelines de dados escaláveis (batch e streaming);Participar da modelagem e organização de dados em ambientes Lakehouse;Garantir qualidade, performance e governança dos dados em produção;Implementar e manter Data Lakes / Data Warehouses em cloud (ex: Delta Lake, Snowflake, S3);Automatizar processos de ingestão, transformação e carga de dados;Trabalhar em conjunto com cientistas de dados, analistas e engenheiros de software;Atuar com boas práticas de DataOps / MLOps e versionamento de dados;Participar da definição de arquitetura de dados moderna e segura.