 
        
        Dados: O Núcleo da Transformação Digital
Desenvolvedores de carreira apoiando projetos de dados em AWS, criam pipelines escaláveis e eficientes para produzir resultados precisos.
Técnicas Utilizadas:
 * AWS Glue para criar, manter e integrar serviços AWS
 * Apollo Airflow para orquestrar workflows ETL/ELT, agendar e monitorar pipelines
 * Python para desenvolver scripts e automações para tratamento e transformação de dados
 * PySpark para processar grandes volumes de dados, otimizar jobs e ajustar a performance
 * Athena para criar e otimizar consultas SQL serverless, integrar com S3 e Data Catalog
 * S3 para modelar buckets, organizar dados brutos e tratados, versionar e configurar políticas de acesso
 * Lambda para utilizar funções serverless para processamento em tempo real, automações e integrações
 * EMR para administrar e executar clusters Hadoop/Spark, configuração de ambientes e pipelines de alto desempenho
 * Git e CI/CD para versionar código, integrar e entregar contínuamente, configurar pipelines de deploy
Habilidades Complementares:
 * Modelagem de dados para entender estruturas dimensionais, relacionais e não relacionais, normalização/desnormalização e boas práticas analíticas
 * ETL/ELT para levantar requisitos, desenhar e implementar fluxos de extração, transformação e carga com foco em qualidade e governança
 * Boas práticas de segurança e compliance no ecossistema AWS
 * Integração de dados provenientes de múltiplas fontes
 * Monitoramento e observabilidade de pipelines
 * Documentação técnica clara e repositórios de conhecimento
Diferenciais:
 * Conhecimento básico/intermediário de espanhol para interagir com times ou clientes hispano-falantes
 * Experiência com ambientes multi-conta e multi-região na AWS
 * Familiaridade com infraestrutura como código
 * Otimização de custos em workloads de dados na nuvem
Informações Adicionais:
 * Contratação CLT
 * Atuação remota
 * Projeto temporário de 6 meses