Desenvolvimento de soluções de dados é fundamental para qualquer organização.
O candidato que busca trabalhar como Engenheiro de Dados deve ter habilidades em SQL, conhecimento em linguagem Python e experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL).
Além disso, é importante possuir conhecimento em Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
* Compreensão e tradução de requisitos: Identificar e priorizar requisitos de negócio, funcionais e técnicos, traduzindo-os em soluções nas plataformas de dados.
* Arquitetura e modelagem de dados: Projetar e implementar arquiteturas escaláveis para armazenar, processar e disponibilizar grandes volumes de dados.
* Integração com Data Science: Trabalhar em parceria com o time de Data Science para projetar e implementar soluções baseadas em dados e Machine Learning.
* Pipelines e processamento de dados: Desenvolver e otimizar pipelines de ingestão, processamento e transformação de dados.
* Orquestração de Pipelines de Dados: Implementar e gerenciar workflows de dados utilizando ferramentas como Apache Airflow.
* Melhores Práticas de DataOps: Aplicar conceitos de CI/CD para pipelines de dados, testes automatizados em ETLs, versionamento de dados e monitoramento contínuo da qualidade e confiabilidade dos dados.
* Segurança e Governança de Dados: Garantir boas práticas de proteção de dados, controle de acessos, auditoria e conformidade com regulamentos.
É fundamental ter capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
Além disso, é importante ter experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
* Expertise em SQL: Domínio da linguagem SQL, incluindo melhores práticas, otimização de consultas e modelagem de dados eficiente.
* Bancos de dados: Experiência com bancos de dados relacionais (SQL) e não relacionais (NoSQL), com foco em desempenho e escalabilidade.
* Programação e notebooks interativos: Experiência com Python e Jupyter Notebooks para análise, processamento e manipulação de dados.
* Versionamento e colaboração: Conhecimento em sistemas de controle de versão, especialmente Git.
* Integração e APIs: Familiaridade com consumo e criação de APIs para manipulação e integração de dados.
* Processamento e análise de dados em larga escala: Conhecimento em Data Warehousing e tecnologias de Big Data para lidar com grandes volumes de dados.
* Documentação e suporte: Capacidade de criar e manter documentações claras e acessíveis para facilitar o uso dos recursos por outros usuários.
* Gerenciamento de projetos: Experiência com organização e entregas de projetos de alta complexidade em engenharia de dados.
* Cloud Computing: Experiência com provedores de nuvem, com foco em Google Cloud Platform (GCP) e serviços como Cloud Functions, BigQuery, Pub/Sub, Dataflow e Cloud Storage.