Desafio de Dados
Procuramos um profissional para garantir a disponibilidade, confiabilidade e escalabilidade dos dados, estruturando pipelines e arquiteturas que suportem análises avançadas e soluções de inteligência artificial.
Responsabilidades
* Construção e manutenção de pipelines de dados robustos e escaláveis.
* Estruturação de arquiteturas que assegurem segurança, governança e performance.
* Apoio a cientistas de dados e analistas de BI na preparação e disponibilização de datasets.
Competências e Habilidades
* Domínio em Python, SQL, Spark e ferramentas da GCP (BigQuery, Cloud Storage, Composer/Airflow).
* Experiência em ETL/ELT, big data, integração de APIs e versionamento de código (Git).
* Conhecimento desejável em Docker, CI/CD e monitoramento de pipelines.
Oportunidades
* Ambiente de trabalho: Leve e descontraído.
* Benefícios: Caju (cartão de benefícios flexíveis), convênio médico e odontológico Bradesco sem coparticipação.