Descrição do Cargo
* Desenvolver pipelines de dados escaláveis e eficientes, desde a ingestão até a disponibilização das informações.
* Criar jobs e integrações com serviços AWS.
* Orquestrar workflows ETL/ELT e monitoramento de pipelines.
* Desenvolver scripts para tratamento e transformação de dados.
* Processar grandes volumes de dados distribuídos.
* Crear consultas SQL serverless e integrá-las com S3 e Glue Data Catalog.
* Modelagem de buckets, organização de dados brutos e tratados, versões e políticas de acesso.
* Funções serverless para processamento em tempo real.
Habilidades Complementares
* Modelagem de dados – Entendimento de estruturas dimensionais, relacionais e não relacionais.
* ETL/ELT – Levantamento de requisitos, desenho e implementação de fluxos de extração, transformação e carga.
* Boas práticas de segurança e compliance no ecossistema AWS.
* Integração de dados provenientes de múltiplas fontes.
* Monitoramento e observabilidade de pipelines.
* Documentação técnica clara e manutenção de repositórios de conhecimento.