Observamos a necessidade de profissionais qualificados para o desenvolvimento e manutenção de pipelines de dados robustos, escaláveis e seguros.
O Engenheiro de Dados III (Sênior) deve garantir a confiabilidade, performance e governança dos dados, atuando com foco em eficiência e qualidade na ingestão, transformação e disponibilização de dados.
Atribuições principais incluem:
* Sustentar e evoluir o Data Lake, com foco em performance, segurança e escalabilidade;
* Construir e manter pipelines de ingestão e transformação de dados (ETL/ELT) utilizando ferramentas como Spark e Databricks;
* Trabalhar em conjunto com outras áreas da empresa para garantir a integridade dos dados usados em produtos e análises;
* Atuar com boas práticas de versionamento, CI/CD e deploy de pipelines em ambiente cloud;
* Participar ativamente da gestão de custos analíticos (FinOps), contribuindo para um ambiente eficiente e sustentável;
* Promover boas práticas de arquitetura de dados, governança e segurança.
Requisitos e qualificações exigidos incluem:
* Mínimo de 4 anos de experiência com engenharia de dados em ambientes de produção;
* Vivência com arquiteturas modernas de dados (data lake, streaming, cloud);
* Experiência prática com ingestão, orquestração e versionamento de pipelines de dados;
* Ensino superior completo em Ciência da Computação, Engenharia, Sistemas de Informação, Estatística ou áreas correlatas;
* Ferramentas de orquestração como Airflow;Git, pipelines de CI/CD;Noções de arquitetura de dados e segurança em cloud (preferencialmente Azure);Boas práticas de deploy e versionamento de dados;Conceitos de FinOps e otimização de custo em cloud;
* Pensamento estruturado e foco em resolução de problemas;
* Comunicação clara e colaborativa com áreas técnicas e de negócio;
* Comprometimento com qualidade e confiabilidade das entregas;
* Autonomia para propor soluções e evoluções técnicas;
* Curiosidade para aprender novas tecnologias e aplicar boas práticas;
Diferenciais:
Desejável atuação prévia em empresas de tecnologia e/ou saúde e ambientes de dados em larga escala.