Construa o Futuro dos Dados na Maitha
Estamos buscando um(a) Engenheiro(a) de Dados apaixonado(a) por infraestrutura em nuvem e Big Data para ser o pilar do nosso ecossistema de dados. Você será responsável por projetar, implementar e otimizar arquiteturas de dados em larga escala utilizando Google Cloud Platform (GCP). Se você tem proficiência em BigQuery, domina Python/Pandas e respira a Arquitetura Medalhão, queremos você no nosso time Seu trabalho será fundamental para garantir qualidade, governança e suportar análises estratégicas de alto impacto.
Responsabilidades:
* Projetar e implementar Data Lakes e Data Warehouses robustos em GCP .
* Conduzir a extração e migração de dados de bancos legados para o ecossistema GCP.
* Desenvolver e otimizar rotinas de tratamento de dados de alta performance com Python e Pandas .
* Manipular e otimizar grandes volumes de dados no BigQuery .
* Implementar e garantir o suporte à Arquitetura Medalhão (Bronze, Silver, Gold).
* Contribuir ativamente na criação e manutenção de relatórios analíticos e suporte a iniciativas de BI.
* Garantir qualidade, governança e eficiência em todo o ciclo de vida dos dados.
Requisitos Essenciais:
* Proficiência em GCP: Domínio de serviços como Cloud Storage, DataFlow, Composer (Airflow), CloudSQL, Dataplex e BigQuery .
* Experiência sólida na construção de Data Lakes, Data Warehouses e Arquitetura Medalhão.
* Domínio em Python e Pandas, especialmente para manipulação de arquivos Parquet e grandes volumes de dados.
* Experiência avançada com otimização de consultas e performance no BigQuery .
* Conhecimento prático em governança de dados, incluindo catalogação e glossário.
Diferenciais:
* Vivência com pipelines de dados escaláveis e streaming.
* Conhecimento e aplicação de práticas de DataOps .
* Experiência com ferramentas de orquestração adicionais ou arquiteturas distribuídas.
* Certificações GCP focadas em dados (ex: Professional Data Engineer).
O que Você Encontrará na Maitha:
Somos uma empresa que valoriza o seu desenvolvimento e bem-estar.
*