 
        
        Missão do cargo
">
oportunidade para atuar como engenheiro de dados em uma empresa líder na tecnologia
 
 * compreensão e tradução de requisitos: identificar e priorizar requisitos de negócio, funcionais e técnicos, traduzindo-os em soluções nas plataformas de dados, utilizando as melhores práticas de engenharia de dados.
 * arquitetura e modelagem de dados: projetar e implementar arquiteturas escaláveis para armazenar, processar e disponibilizar grandes volumes de dados com alta performance.
 * integração com data science: trabalhar em parceria com o time de data science para projetar e implementar soluções baseadas em dados e machine learning.
 * pipelines e processamento de dados: desenvolver e otimizar pipelines de ingestão, processamento e transformação de dados, garantindo qualidade, eficiência e governança.
 * orquestração de pipelines de dados: implementar e gerenciar workflows de dados utilizando ferramentas como apache airflow, garantindo a automação e escalabilidade dos processos de ingestão e processamento.
 * melhores práticas de dataops: aplicar conceitos de ci/cd para pipelines de dados, testes automatizados em etls, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
 * segurança e governança de dados: garantir boas práticas de proteção de dados, controle de acessos, auditoria e conformidade com regulamentos como lgpd e gdpr.
 * boas práticas e escalabilidade: atuar como referência técnica na implementação de soluções em nuvem, promovendo as melhores práticas de engenharia de dados, segurança, confiabilidade e escalabilidade.
 
 * expertise em sql: domínio da linguagem sql, incluindo melhores práticas, otimização de consultas e modelagem de dados eficiente.
 * bancos de dados: experiência com bancos de dados relacionais (sql) e não relacionais (nosql), com foco em desempenho e escalabilidade.
 * programação e notebooks interativos: experiência com python e jupyter notebooks para análise, processamento e manipulação de dados.
 * versionamento e colaboração: conhecimento em sistemas de controle de versão, especialmente git.
 * integração e apis: familiaridade com consumo e criação de apis para manipulação e integração de dados.
 * processamento e análise de dados em larga escala: conhecimento em data warehousing e tecnologias de big data para lidar com grandes volumes de dados.
 * documentação e suporte: capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
 * gerenciamento de projetos: experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
 * cloud computing: experiência com provedores de nuvem, com foco em google cloud platform (gcp) e serviços como cloud functions, bigquery, pub/sub, dataflow e cloud storage.
 * experiência com ferramentas de data science, incluindo bibliotecas e frameworks para modelagem e análise de dados.
 * familiaridade com sistemas erp, especialmente totvs, em contextos de integração de dados corporativos.
 * infraestrutura como código (iac) e automação: conhecimento em terraform para provisionamento e gerenciamento de infraestrutura na nuvem.
 * certificação google cloud certified – professional data engineer, demonstrando expertise em soluções de dados na nuvem.