Responsabilidades e atribuições Experiência em modelagem de dados, ETL e pipelines (airflow, Data Factory ou Spark); Domínio em bancos de dados SQL (PostgreSQL, MySQL) e No SQL (MongoDB, Redis, Cassandra); Conhecimento em Vector DB (ex: Qdrabt) será um diferencial importante; Experiência em ambientes de Big data, processamento distribuído e arquiteturas escaláveis; Domínio de Python (Pandas, PySpark) e ferramentas de Mlops (ML Flow, Kuberflow, vertex, AI); Vivência com serviçosde cloud (AWS, Azure, GCP ou OCI) Familiaridade com Docker, Kubernetes e boas práticas de segurança e governança de dados. Requisitos e qualificações Escolaridade mínima: Graduação - Concluído - Obrigatório Experiências e qualificações: Diferenciais: Experiência aplicada com IA generativa e modelos LLM; Arquitetura orientada e eventos (Kafka, rabbitMQ) Experiência com Infraestrutura como código (Terraform, CloudFormation). Bacharelado em Ciência da computação, Engenharia a computação, Análise de Sistemas ou áreas afins; Certificações em Engenharia de dados e nuvem (diferencial). Benefícios Benefícios CLT 100% remoto AM, AO, VT, VR - R$800