Os candidatos devem ter experiência em engenharia de dados em ambientes de produção, com conhecimento de arquiteturas modernas de dados como data lake e streaming.
O trabalho inclui a criação e manutenção de pipelines de ingestão e transformação de dados utilizando ferramentas como Spark e Databricks.
Ainda é necessário atuar em conjunto com outras áreas da empresa para garantir a integridade dos dados usados em produtos e análises.
Além disso, o trabalhador deve promover boas práticas de arquitetura de dados, governança e segurança.
No que diz respeito às habilidades técnicas, o profissional deve ter conhecimento avançado de SQL e Python, além de experiencia com orquestração de pipelines e gerenciamento de custos em cloud.
As responsabilidades do cargo incluem sustentar e evoluir o Data Lake, construir e manter pipelines de ingestão e transformação de dados e trabalhar em conjunto com outras áreas da empresa.
Ao contratar esse profissional, a empresa está procurando por alguém que possa contribuir com soluções eficazes e escaláveis, garantindo a confiabilidade e performance dos dados.
Portanto, os candidatos devem ter um perfil focado em eficiência e qualidade, com comprometimento com as entregas e autoria para propor soluções técnicas inovadoras.
Também é desejável ter experiência em empresas de tecnologia e/ou saúde e em ambientes de dados em larga escala.
Para se qualificar para esse cargo, é fundamental conhecer bem as boas práticas de arquitetura de dados, governança e segurança, além de ter habilidade em implementar soluções eficientes e escaláveis.
Essa posição oferece uma oportunidade única para os profissionais de engenharia de dados que buscam desenvolver suas habilidades e contribuir com a gestão de dados de forma eficiente e sustentável.
A flexibilidade e criatividade são valorizadas nesse cargo, onde você precisará colaborar com equipes e realizar projetos complexos.
Como Engenheiro de Dados Sênior, você será peça-chave na construção de pipelines de dados robustos e escaláveis, garantindo a confiabilidade e performance dos dados.
Desenvolver pipelines de dados eficientes e escaláveis;
Garantir a confiabilidade e performance dos dados;
Trabalhar em conjunto com outras áreas da empresa para garantir a integridade dos dados usados em produtos e análises.
Possuir conhecimento avançado de SQL e Python;
Experiência com orquestração de pipelines e gerenciamento de custos em cloud;
Sustentar e evoluir o Data Lake;
Construir e manter pipelines de ingestão e transformação de dados.
Contratação: CLT com benefícios
],