Missão do Cargo
Parceiro para desenvolvimento de soluções em dados.
Responsabilidades
1. Compreender e traduzir requisitos: Identificar e priorizar requisitos funcionais, técnicos e de negócios, traduzindo-os em soluções em plataformas de dados, utilizando as melhores práticas de engenharia de dados.
2. Arquitetura e modelagem de dados:
* Projetar e implementar arquiteturas escaláveis para armazenar, processar e disponibilizar grandes volumes de dados com alta performance.
3. Integração com Data Science:
* Trabalhar em parceria com o time de Data Science para projetar e implementar soluções baseadas em dados e Machine Learning.
4. Pipelines e processamento de dados:
* Desenvolver e otimizar pipelines de ingestão, processamento e transformação de dados, garantindo qualidade, eficiência e governança.
5. Orquestração de Pipelines de Dados:
* Implementar e gerenciar workflows de dados utilizando ferramentas como Apache Airflow, garantindo a automação e escalabilidade dos processos de ingestão e processamento.
6. Melhores Práticas de DataOps:
* Aplicar conceitos de CI/CD para pipelines de dados, testes automatizados em ETLs, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
7. Segurança e Governança de Dados:
* Garantir boas práticas de proteção de dados, controle de acessos, auditoria e conformidade com regulamentos.
8. Boas práticas e escalabilidade:
* Atuar como referência técnica na implementação de soluções em nuvem, promovendo as melhores práticas de engenharia de dados, segurança, confiabilidade e escalabilidade.
9. Expertise em SQL:
* Domínio da linguagem SQL, incluindo melhores práticas, otimização de consultas e modelagem de dados eficiente.
10. Bancos de dados:
* Experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL), com foco em desempenho e escalabilidade.
11. Programação e notebooks interativos:
* Experiência com Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
12. Versionamento e colaboração:
* Conhecimento em sistemas de controle de versão, especialmente Git.
13. Integração e APIs:
* Familiaridade com consumo e criação de APIs para manipulação e integração de dados.
14. Processamento e análise de dados em larga escala:
* Conhecimento em Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
15. Documentação e suporte:
* Capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
16. Gerenciamento de projetos:
* Experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
17. Cloud Computing:
* Experiência com provedores de nuvem, com foco em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, Dataflow e Cloud Storage.
18. Experiência com ferramentas de Data Science, incluindo bibliotecas e frameworks para modelagem e análise de dados.
19. Familiaridade com sistemas ERP, especialmente TOTVS, em contextos de integração de dados corporativos.
20. Infraestrutura como Código (IaC) e Automação:
* Conhecimento em Terraform para provisionamento e gerenciamento de infraestrutura na nuvem.
21. Certificação Google Cloud Certified – Professional Data Engineer, demonstrando expertise em soluções de dados na nuvem.
]
Requisitos e Qualificações
22. Expertise em SQL: Domínio da linguagem SQL, incluindo melhores práticas, otimização de consultas e modelagem de dados eficiente.
23. Conhecimento em banco de dados: Experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL), com foco em desempenho e escalabilidade.
24. Conhecimento em programação: Experiência com Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
25. Conhecimento em sistema de controle de versão: Conhecimento em sistemas de controle de versão, especialmente Git.
26. Conhecimento em integração e APIs: Familiaridade com consumo e criação de APIs para manipulação e integração de dados.
27. Conhecimento em processamento e análise de dados em larga escala: Conhecimento em Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
28. Conhecimento em documentação e suporte: Capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
29. Conhecimento em gerenciamento de projetos: Experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
30. Conhecimento em cloud computing: Experiência com provedores de nuvem, com foco em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, Dataflow e Cloud Storage.
31. Conhecimento em ferramentas de data science: Experiência com ferramentas de Data Science, incluindo bibliotecas e frameworks para modelagem e análise de dados.
32. Conhecimento em sistemas ERP: Familiaridade com sistemas ERP, especialmente TOTVS, em contextos de integração de dados corporativos.
33. Conhecimento em infraestrutura como código (iac): Conhecimento em Terraform para provisionamento e gerenciamento de infraestrutura na nuvem.
34. Conhecimento em certificação google cloud certified-professional data engineer: Certificação Google Cloud Certified – Professional Data Engineer, demonstrando expertise em soluções de dados na nuvem.
]
Vantagens
35. Opportunaide de atuar em uma equipe de sucesso.
36. Oportunidade de trabalhar em projetos de alta complexidade.
37. Acessibilidade à formação e ao treinamento profissional.
38. Ambiente de trabalho dinâmico e estimulante.
39. Oportunidade de crescer profissionalmente.
]
Outros
40. Respeito ao tempo de trabalho e aos direitos dos funcionários.
41. Valorização do conhecimento e habilidades dos funcionários.
42. Interesse na melhoria contínua da qualidade do trabalho.
43. Consideração pela diversidade e inclusão no ambiente de trabalho.
],