Buscamos um profissional com sólida experiência em projetos de dados utilizando o ecossistema AWS, capaz de desenhar, desenvolver e manter pipelines de dados escaláveis e eficientes. A pessoa deve ter capacidade de trabalhar desde a ingestão até a disponibilização das informações.
* Desenvolvimento de scripts e automações para tratamento e transformação de dados em Python.
* Processamento distribuído de grandes volumes de dados com PySpark.
* Criação e otimização de consultas SQL Serverless em Amazon Athena.
* Modelagem de buckets e organização de dados brutos e tratados em Amazon S3.
* Funções serverless para processamento em tempo real em AWS Lambda.
* Administração e execução de clusters Hadoop/Spark em Amazon EMR.
* Versionamento de código e integração e entrega contínua com Git e CI/CD.
* Entendimento de estruturas dimensionais, relacionais e não relacionais.
* Levantamento de requisitos e implementação de fluxos de extração, transformação e carga (ETL).
* Boas práticas de segurança e compliance no ecossistema AWS.
* Integração de dados provenientes de múltiplas fontes.
* Monitoramento e observabilidade de pipelines.
* Documentação técnica clara e manutenção de repositórios de conhecimento.
* Conhecimento básico/intermediário de espanhol para interação com times ou clientes hispano-falantes.
* Experiência com ambientes multi-conta e multi-região na AWS.
* Familiaridade com infraestrutura como código (CloudFormation, Terraform ou CDK).
* Experiência em otimização de custos em workloads de dados na nuvem.
* Contratação CLT
* Atingência remota
* Projeto temporário de 6 meses