Fabricar um Profissional em Dados
Única oportunidade de atuar como especialista em dados no maior ecossistema tecnológico do Brasil.
O que você vai fazer:
* Requisitos e Soluções: Identificar e priorizar requisitos de negócios, funcionais e técnicos para desenvolver soluções de dados escaláveis e otimizadas.
* Arquitetura de Dados: Projetar e implementar arquiteturas robustas para armazenar, processar e disponibilizar grandes volumes de dados com alta performance.
* Data Science: Trabalhar em parceria com times de Data Science para criar soluções baseadas em dados e Machine Learning.
* Pipelines de Dados: Desenvolver e otimizar pipelines de ingestão, processamento e transformação de dados para garantir qualidade, eficiência e governança.
* Orquestração de Pipelines: Implementar e gerenciar workflows de dados utilizando ferramentas como Apache Airflow para automatizar e escalar processos de ingestão e processamento.
* Melhores Práticas de DataOps: Aplicar conceitos de CI/CD para pipelines de dados, testes automatizados em ETLs, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
* Segurança e Governança de Dados: Garantir boas práticas de proteção de dados, controle de acessos, auditoria e conformidade com regulamentos como LGPD e GDPR.
* Escalabilidade e Confiança: Atuar como referência técnica na implementação de soluções em nuvem, promovendo as melhores práticas de engenharia de dados, segurança, confiabilidade e escalabilidade.
O que esperamos de você:
* Expertise em SQL: Conhecimento avançado da linguagem SQL, incluindo melhores práticas, otimização de consultas e modelagem de dados eficiente.
* Bancos de Dados: Experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL), com foco em desempenho e escalabilidade.
* Programação e Análise de Dados: Conhecimento em Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
* Versionamento e Colaboração: Familiaridade com sistemas de controle de versão, especialmente Git.
* Integração e APIs: Conhecimento em consumo e criação de APIs para manipulação e integração de dados.
* Processamento e Análise de Dados em Larga Escala: Conhecimento em Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
* Documentação e Suporte: Capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
* Gerenciamento de Projetos: Experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
* Cloud Computing: Experiência com provedores de nuvem, com foco em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, Dataflow e Cloud Storage.
* Ferramentas de Data Science: Conhecimento em bibliotecas e frameworks para modelagem e análise de dados.
* Sistemas ERP: Familiaridade com sistemas ERP, especialmente TOTVS, em contextos de integração de dados corporativos.
* Infraestrutura como Código (IaC) e Automação: Conhecimento em Terraform para provisionamento e gerenciamento de infraestrutura na nuvem.
* Certificação Google Cloud Certified – Professional Data Engineer, demonstrando expertise em soluções de dados na nuvem.