Missão:
Oportunidade para trabalhar como especialista em dados.
Responsabilidades:
 * Compreender e traduzir requisitos: Identificar e priorizar requisitos de negócio, funcionais e técnicos, transformando-os em soluções eficazes nas plataformas de dados.
 * Arquitetura e modelagem de dados: Projetar e implementar arquiteturas escaláveis para armazenar, processar e disponibilizar grandes volumes de dados com alta performance.
 * Integração com ciência de dados: Trabalhar em parceria com o time de ciência de dados para projetar e implementar soluções baseadas em dados e inteligência artificial.
 * Pipelines e processamento de dados: Desenvolver e otimizar pipelines de ingestão, processamento e transformação de dados, garantindo qualidade, eficiência e governança.
 * Orquestração de pipelines de dados: Implementar e gerenciar fluxos de dados utilizando ferramentas como Apache Airflow, garantindo a automação e escalabilidade dos processos de ingestão e processamento.
 * Bem-estar dos dados: Aplicar conceitos de continuidade do negócio para pipelines de dados, testes automatizados em ETLs, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
 * Governança e segurança de dados: Garantir práticas de proteção de dados, controle de acessos, auditoria e conformidade com regulamentos.
 * Aperfeiçoamento contínuo:
 * Especialização em nuvem: Atuar como referência técnica na implementação de soluções em nuvem, promovendo as melhores práticas de engenharia de dados, segurança, confiabilidade e escalabilidade.
Habilidades esperadas:
 * Expertise em SQL: Domínio da linguagem SQL, incluindo melhorias contínuas e otimização de consultas.
 * Bancos de dados: Experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL), com foco em desempenho e escalabilidade.
 * Programação e notebooks interativos: Experiência com Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
 * Versionamento e colaboração: Conhecimento em sistemas de controle de versão, especialmente Git.
 * Integração e APIs: Familiaridade com consumo e criação de APIs para manipulação e integração de dados.
 * Análise de dados em larga escala: Conhecimento em Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
 * Documentação e suporte: Capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
 * Gerenciamento de projetos: Experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
 * Computação em nuvem: Experiência com provedores de nuvem, com foco em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, Dataflow e Cloud Storage.
 * Experiência com ferramentas de ciência de dados, incluindo bibliotecas e frameworks para modelagem e análise de dados.
 * Familiaridade com sistemas ERP, especialmente TOTVS, em contextos de integração de dados corporativos.
 * Solução de problemas e melhoria contínua: Abordar problemas complexos com uma abordagem sistemática e buscam constantemente oportunidades de melhoria e inovação.
 * Certificação em computação em nuvem: Demonstrar expertise em soluções de dados na nuvem.