Descrição da Vaga
* Solida experiência em projetos de dados utilizando o ecossistema AWS, com capacidade de desenhar, desenvolver e manter pipelines de dados escaláveis e eficientes.
* Técnicas utilizadas:
* AWS Glue: criação e manutenção de jobs, crawlers, catálogos de dados, e integração com outros serviços AWS.
* Apollo Airflow: orquestração de workflows ETL/ELT, agendamento e monitoramento de pipelines.
* Python: desenvolvimento de scripts e automações para tratamento e transformação de dados.
* PySpark: processamento distribuído de grandes volumes de dados, otimização de jobs e tuning de performance.
* Athena: criação e otimização de consultas SQL serverless, integração com S3 e Glue Data Catalog.
* S3: modelagem de buckets, organização de dados brutos e tratados, versionamento e políticas de acesso.
* Lambda: funções serverless para processamento em tempo real, automações e integrações.
* EMR: administração e execução de clusters Hadoop/Spark, configuração de ambientes e pipelines de alto desempenho.
* GIT e CI/CD: versionamento de código, integração e entrega contínua, configuração de pipelines de deploy.
Habilidades Complementares
* Modelagem de dados: entendimento de estruturas dimensionais, relacionais e não relacionais, normalização/desnormalização e boas práticas para ambientes analíticos.
* ETL/ELT: levantamento de requisitos, desenho e implementação de fluxos de extração, transformação e carga, com foco em qualidade e governança.
* Boas práticas de segurança e compliance no ecossistema AWS (IAM, KMS, políticas de acesso, criptografia).
* Integração de dados provenientes de múltiplas fontes.
* Monitoramento e observabilidade de pipelines.
* Documentação técnica clara e manutenção de repositórios de conhecimento.
Diferenciais
* Conhecimento básico/intermediário de espanhol para interação com times ou clientes hispano-falantes.
* Experiência com ambientes multi-conta e multi-região na AWS.
* Familiaridade com infraestrutura como código (CloudFormation, Terraform ou CDK).
* Experiência em otimização de custos em workloads de dados na nuvem.
Informações Adicionais
* Contratação CLT.
* Atuação remota.
* Projeto temporário de 6 meses.
Crie um pipeline de dados escalável
Desenvolva habilidades em AWS, Apollo Airflow, Python, PySpark e Athena
Seja um especialista em modelagem de dados, ETL/ELT e boas práticas de segurança