MISÃO DO CARGO
Oportunidade para atuar como especialista em dados e análise de informações.
QUE FUNÇÕES VAI DESEMPEÑAR:
1. Ajustar e priorizar requisitos: Identificar e traduzir requisitos de negócios, funcionais e técnicos em soluções eficazes na área de dados, utilizando as melhores práticas de engenharia de dados.
2. Arquitetura e modelagem de dados: Projetar e implementar arquiteturas escaláveis para armazenar, processar e fornecer grandes volumes de dados com alta performance.
3. Papel importante no time de ciência de dados: Trabalhar em conjunto com o time de ciência de dados para projetar e implantar soluções baseadas em dados e aprendizado de máquina.
4. Fluxos de dados e processamento: Desenvolver e otimizar fluxos de ingestão, processamento e transformação de dados, garantindo qualidade, eficiência e governança.
5. Orquestração de Fluxos de Dados: Implementar e gerenciar workflows de dados usando ferramentas como Apache Airflow, garantindo a automação e escalabilidade dos processos de ingestão e processamento.
6. Bem-estar de dados: Aplicar conceitos de CI/CD para pipelines de dados, testes automatizados em ETLs, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
7. Proteção de dados e governança: Garantir boas práticas de proteção de dados, controle de acessos, auditoria e conformidade com regulamentos como LGPD e GDPR.
8. Atuação responsável: Atuar como referência técnica na implementação de soluções em nuvem, promovendo as melhores práticas de engenharia de dados, segurança, confiabilidade e escalabilidade.
QUE ESPERAMOS DE VOCÊ:
* Expertise em SQL: Conhecimento avançado da linguagem SQL, incluindo melhorias constantes das suas habilidades, otimização de consultas e modelagem de dados eficiente.
* Bancos de dados: Experiência sólida com bancos de dados relacionais (SQL) e não relacionais (NoSQL), focada no desempenho e escalabilidade.
* Programação e notebooks interativos: Experiência completa com Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
* Controle de versões e colaboração: Conhecimento profundo em sistemas de controle de versão, especialmente Git.
* Integração e APIs: Familiaridade completa com consumo e criação de APIs para manipulação e integração de dados.
* Análise e tratamento de dados em grande escala: Conhecimento detalhado sobre Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
* Documentação e apoio: Capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
* Gerenciamento de projetos: Experiência completa em organização e entrega de projetos complexos de engenharia de dados.
* Nuvem computing: Experiência com provedores de nuvem, focando em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, Dataflow e Cloud Storage.
* Experiência com ferramentas de Ciência de Dados, incluindo bibliotecas e frameworks para modelagem e análise de dados.
* Familiaridade com sistemas ERP, especialmente TOTVS, em contextos de integração de dados corporativos.
* Infraestrutura como código (IaC) e automação: Conhecimento detalhado em Terraform para provisionamento e gerenciamento de infraestrutura na nuvem.
* Certificação Google Cloud Certified – Professional Data Engineer, demonstrando expertise em soluções de dados na nuvem.