**Papel na empresa**:
**Responsabilidades**:
Atuar na definição e evolução da arquitetura de dados em ambiente de larga escala e alta complexidade.
Liderar iniciativas de integração, governança e segurança de dados, garantindo escalabilidade e conformidade regulatória.
Propor soluções técnicas e arquiteturais para diferentes áreas do negócio, sempre com foco no melhor resultado para a empresa.
Trabalhar em colaboração com times multidisciplinares, apoiando desde a fase de concepção até a entrega de projetos estratégicos.
Orientar e apoiar a adoção de boas práticas em engenharia de dados, programação, performance, uso de ferramentas de analytics e soluções com responsabilidade de custo.
**O que esperamos do profissional**:
Capacidade de comunicação clara e assertiva, com perfil argumentativo para defender propostas de solução.
Habilidade para ouvir e considerar diferentes pontos de vista, equilibrando opiniões divergentes e direcionando para o melhor resultado de negócio.
Facilidade para atuar em ambientes complexos e desafiadores, especialmente em contextos ligados à manufatura.
Inglês técnico para leitura e compreensão de artigos, documentação e boas práticas globais.
**Requisitos técnicos (Hard Skills)**:
Domínio avançado em AWS (arquitetura, segurança, serviços de dados, governança).
Experiência avançada com Databricks, incluindo arquitetura de clusters (job clusters, all-purpose clusters, liquid clusters para workloads dinâmicos).
Unity Catalog para governança e segurança unificada de dados e metadados.
Delta Lake para implementação de Lakehouse, otimização de performance e confiabilidade de pipelines.
Forte conhecimento em segurança de dados e governança.
Programação em Python com boas práticas de desenvolvimento.
Experiência com integração de dados e ferramentas de replicação como Qlik Replicate (diferencial).
Conhecimento em orquestradores de dados, com destaque para Control-M (diferencial), além de ferramentas modernas como Airflow, MWAA, Step Functions ou similares.
Capacidade de estimar custo de arquiteturas e propor soluções de otimização financeira em ambientes distribuídos.
Conhecimento de Data Mesh.
Implementação de Data Observability: monitoramento de qualidade, latência e confiabilidade dos dados (Monte Carlo, Datadog, OpenTelemetry ou soluções nativas da AWS).
Experiência com alertas e logging centralizado para pipelines distribuídos.
Experiência com CI/CD aplicado a pipelines de dados (GitHub Actions, GitLab CI, Jenkins, Azure DevOps).
Conhecimento em Infra as Code (IaC) para provisionamento de ambientes de dados (Terraform, CloudFormation, CDK).
Visão estratégica sobre IA generativa e Machine Learning aplicados ao negócio.
**Certificações desejáveis**:
AWS e/ou Databricks Associate/Professional.
**Incentivos que importam**:
Cuidamos de quem cuida dos nossos dados
- **Auxílio médico**: ajuda de custo mensal para apoiar na contratação do seu plano de saúde.
- **Wellhub**, pra manter corpo e mente ativos, do jeito que você gosta.
- **Terapia online 100% custeada pela empresa**, porque saúde mental importa.
- **Atendimento em Nutrição online**, com até 2 consultas mensais para cuidar da sua saúde alimentar.
- **Seguro de vida** com apólice no valor de R$125 mil, garantindo mais segurança para você e sua família.
- **Day off no aniversário**, porque o seu dia merece ser especial.
- **Descanso remunerado**, para que você possa recarregar as energias.
- **Gamificação interna**, transformando conquistas em prêmios e reconhecimento.
- **Parcerias educacionais** com faculdades como **FIAP, Anhanguera** e **Instituto Infnet**, pra apoiar seu crescimento e aprendizado.
- **Bônus por certificação técnica**, reconhecendo e recompensando seu esforço em aprender.
**Atuação remota.**
Valorizamos cada voz e cada pessoa, porque sabemos que a diversidade nos torna mais inovadores e fortes.