Arquiteto de Dados Especialista (Multi-cloud)
Contratante: Avantti Tecnologia
Senioridade: Especialista
Modelo de Trabalho: Remoto
Período: 3 meses (podendo ser prorrogado)
Sobre a Oportunidade
Estamos buscando um Arquiteto de Dados Especialista com experiência profunda em ambientes híbridos e multi‑cloud (AWS, GCP e Azure). O profissional será responsável por projetar, evoluir e garantir a interoperabilidade da arquitetura corporativa de dados em larga escala, atuando de forma hands‑on com pipelines, integrações, segurança e governança.
Requisitos Técnicos (Obrigatórios)
Sólida experiência com integração híbrida: on‑premises, AWS, GCP e Azure
Experiência prática com conectividade corporativa
Experiência em desenho de arquiteturas multi‑cloud com padronização e interoperabilidade
Experiência com ingestion patterns: CDC, streaming, batch, API ingestion, file ingestion
Pipelines de Dados Multi‑cloud:
AWS: Kinesis, Glue, S3, Lake Formation, Redshift, EMR
GCP: BigQuery, Dataflow/Beam, Pub/Sub, Composer
Azure: Data Factory, Synapse, ADLS, Databricks, Event Hub
Modelagem conceitual, lógica, física, canonical models e padrões corporativos
Big Data e processamento distribuído: Spark, EMR, Databricks
Governança, metadados, qualidade, catálogo e lineage
Segurança e IAM
Orquestração e Mensageria:
Orquestração: Step Functions, Airflow, MuleSoft, Databricks Jobs
Mensageria: Kafka, Pub/Sub, Event Hub, Kinesis
Experiência com DW/BI
Power BI (necessário)
Looker (desejável), Tableau (desejável), QuickSight (desejável)
CI/CD, Infra as Code (Terraform preferencial) e GitOps
Segurança em cloud
Perfil
Perfil hands‑on, com atuação direta em desenvolvimento de extração e ingestão de dados.
Desejáveis
Conhecimento em People Analytics
Responsabilidades Principais
Projetar e evoluir a arquitetura corporativa de dados em ambiente híbrido e multi‑cloud (on‑premises ↔ AWS ↔ Azure ↔ GCP)
Desenhar integrações entre sistemas legados e camadas de ingestão e processamento em cloud
Definir padrões de integração entre data centers locais, sistemas on‑premises e soluções cloud
Garantir resiliência, segurança, performance e otimização de custos de toda a arquitetura
Estruturar pipelines distribuídos em larga escala entre AWS, Azure e GCP
Definir e manter lifecycle de dados nas camadas Bronze, Silver e Gold
Implementar políticas robustas de Governança de Dados, Data Quality e Catálogo (Lake Formation, Glue Catalog, DataHub, Collibra, ou equivalente)
Atuar com áreas de Produto, Cliente e Fornecedor na definição de modelos corporativos
Integrar ambientes de consumo analítico e ciência de dados entre clouds
Construir arquiteturas para consumo real time e batch
Orientar squads de engenharia, analytics e sistemas na adoção de padrões unificados
Conduzir POCs comparativas entre AWS, GCP e Azure
Apoiar no desenvolvimento das extrações e ingestão de dados
#J-18808-Ljbffr