Mission:
Seja a pessoa certa para atuar como engenheiro de dados na maior empresa de tecnologia do Brasil.
O que você vai fazer:
* Compreensão e tradução de requisitos: identificar e priorizar requisitos de negócios, funcionais e técnicos, traduzindo-os em soluções nas plataformas de dados, utilizando as melhores práticas de engenharia de dados.
* Arquitetura e modelagem de dados: projetar e implementar arquiteturas escaláveis para armazenar, processar e disponibilizar grandes volumes de dados com alta performance.
* Integração com ciência de dados: trabalhar em parceria com o time de ciência de dados para projetar e implementar soluções baseadas em dados e aprendizado de máquina.
* Pipelines e processamento de dados: desenvolver e otimizar pipelines de ingestão, processamento e transformação de dados, garantindo qualidade, eficiência e governança.
* Orquestração de pipelines de dados: implementar e gerenciar fluxos de dados utilizando ferramentas como Apache Airflow, garantindo a automação e escalabilidade dos processos de ingestão e processamento.
* Melhores práticas de dataops: aplicar conceitos de CI/CD para pipelines de dados, testes automatizados em ETLs, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
* Segurança e governança de dados: garantir boas práticas de proteção de dados, controle de acesso, auditoria e conformidade com regulamentos como LGPD e GDPR.
* Boas práticas e escalabilidade: atuar como referência técnica na implementação de soluções em nuvem, promovendo as melhores práticas de engenharia de dados, segurança, confiabilidade e escalabilidade.
O que esperamos de você:
* Esperienza em SQL: domínio da linguagem SQL, incluindo melhores práticas, otimização de consultas e modelagem de dados eficiente.
* Bancos de dados: experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL), com foco em desempenho e escalabilidade.
* Programação e notebooks interativos: experiência com Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
* Versionamento e colaboração: conhecimento em sistemas de controle de versão, especialmente Git.
* Integração e APIs: familiaridade com consumo e criação de APIs para manipulação e integração de dados.
* Processamento e análise de dados em larga escala: conhecimento em data warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
* Documentação e suporte: capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
* Gerenciamento de projetos: experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
* Nuvem computacional: experiência com provedores de nuvem, com foco em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, DataFlow e Cloud Storage.
* Experiência com ferramentas de ciência de dados, incluindo bibliotecas e frameworks para modelagem e análise de dados.
* Familiaridade com sistemas ERP, especialmente Totvs, em contextos de integração de dados corporativos.
* Infraestrutura como código (IaC) e automação: conhecimento em Terraform para provisionamento e gerenciamento de infraestrutura na nuvem.
* Certificação Google Cloud Certified – Professional Data Engineer, demonstrando expertise em soluções de dados na nuvem.