Responsabilidades e atribuições
* Realizar a concepção, definição e implementação da plataforma de dados na Google Cloud Platform (GCP);
* Criar, evoluir e otimizar data warehouses na nuvem utilizando BigQuery;
* Projetar e implementar arquiteturas de dados escaláveis e de alta performance;
* Desenvolver pipelines de processamento de dados em modelos batch e streaming;
* Orquestrar fluxos de dados e integrações utilizando Apache Airflow;
* Gerenciar dados estruturados, semiestruturados e não estruturados, assegurando qualidade, segurança e governança;
* Implementar integrações com APIs e ferramentas de Business Intelligence (BI);
* Definir boas práticas de modelagem, padronização e governança de dados;
* Atuar de forma colaborativa com times técnicos e áreas de negócio na definição de soluções orientadas a dados;
* Garantir eficiência operacional, confiabilidade e escalabilidade da plataforma de dados.
Requisitos e qualificações
* Experiência comprovada em Google Cloud Platform (GCP), com domínio de BigQuery e do ecossistema de dados na nuvem;
* Experiência em orquestração de dados com Apache Airflow;
* Proficiência em SQL e Python;
* Experiência com processamento e análise de grandes volumes de dados utilizando Apache Spark;
* Conhecimento em consumo e integração de dados via APIs;
* Vivência com ferramentas e conceitos de Business Intelligence;
* Conhecimento em arquitetura de dados, modelagem e boas práticas de engenharia de dados;
* Experiência em ambientes ágeis de colaboração, utilizando Scrum, Kanban e ferramentas como Azure DevOps.