Somos a @Runtalent, com DNA inovador, consolidados no mercado de tecnologia e especializados em soluções de TI há quase duas décadas. Acompanhamos todos os avanços tecnológicos dos últimos anos e estamos juntos nessa corrida pela transformação digital.
Arquiteto de Dados Especialista
Modelo de atuação: Remoto
Localização: Extrema, Estado de Minas Gerais, BR
Requisitos
Sólida experiência com integração híbrida: on-premises, AWS, GCP e Azure.
Experiência prática com conectividade corporativa.
Experiência em criação de desenho de arquiteturas multi‑cloud com padronização e interoperabilidade.
Profundo conhecimento em pipelines de dados multi‑cloud: AWS (Kinesis, Glue, S3, Lake Formation, Redshift, EMR, Lambda), GCP (BigQuery, Dataflow/Beam, Pub/Sub, Composer), Azure (Data Factory, Synapse, ADLS, Databricks, Event Hub).
Esteira de deploy.
Experiência com ingestion patterns: CDC, streaming, batch, API ingestion, file ingestion.
Modelagem de dados: conceitual, lógica, física, canonical models, padrões corporativos.
Big Data e processamento distribuído (Spark, EMR, Databricks, desejável).
Governança, metadados, qualidade, catálogo e lineage.
Segurança e IAM.
Ferramentas de orquestração: Step Functions, Airflow, MuleSoft.
Experiência com DW/BI: Power BI (Necessário), Looker (Desejável), Tableau (Desejável), QuickSight (Desejável).
Conhecimento sólido em mensageria: Kafka, Pub/Sub, Event Hub, Kinesis.
Experiência com CI/CD, Infra as Code (Terraform preferencial), GitOps.
Perfil "Hands‑on" para apoiar no desenvolvimento da extração e ingestão de dados.
Segurança em cloud.
Principais Atividades
Projetar e evoluir a arquitetura corporativa de dados da C&A em um ambiente híbrido e multi‑cloud (on‑premises↔ AWS ↔ Azure ↔ GCP).
Desenvolver as extrações, ingestão e transformação de dados nas camadas do lake a ser construído.
Desenhar integrações entre sistemas legados e camadas de ingestão e processamento cloud.
Definir padrões de integração entre data centers locais, sistemas on‑premise e soluções cloud.
Garantir que a arquitetura seja resiliente, segura, performática e com custo otimizado.
Estruturar pipelines em larga escala, distribuídos entre AWS, Azure e GCP.
Definir e manter lifecycle de dados nas camadas Bronze, Silver e Gold.
Implementar políticas de Governança de Dados, Data Quality e catálogo unificado (Lake Formation, Glue Catalog, DataHub, Collibra ou equivalente).
Atuar junto às áreas de Produto, Cliente, Fornecedor na definição de domínios e modelos corporativos.
Integrar ambientes de consumo analítico e ciência de dados entre clouds.
Construir arquiteturas para consumo real‑time e batch.
Orientar squads de engenharia, analytics e sistemas na adoção de padrões de arquitetura unificados para o ecossistema multi‑cloud.
Conduzir POCs possivelmente comparativas entre AWS, GCP e Azure.
Apoiar no desenvolvimento das extrações e ingestão de dados.
Conceito de Datawarehouse.
Conceito de DataMesh.
#J-18808-Ljbffr