Sobre o BS2 Somos um banco 100% digital e focado em empresas, com atendimento humanizado e soluções sob medida para cada cliente - afinal, nenhum negócio é igual ao outro. Essa lógica também se aplica à nossa cultura: temos um DNA inovador que instiga todo o nosso time a se reinventar constantemente. Por aqui, nossos colaboradores (os bessers) podem contar com um ambiente que impulsiona o crescimento da carreira e traz a oportunidade de lidar com os desafios do mercado financeiro com quem mais entende do assunto.Responsabilidades e atribuiçõeProjetar, construir e manter pipelines de dados eficientes e escaláveis com PySpark.Orquestrar fluxos de dados e jobs utilizando Cloud Composer (Airflow).Otimizar e gerenciar cargas de trabalho em clusters Dataproc, considerando custo, performance e escalabilidade.Executar transformações de dados complexas em BigQuery, otimizando consultas e particionamentos.Garantir a integridade, consistência e qualidade dos dados em todo o pipeline.Participar da arquitetura de soluções de dados em nuvem (Google Cloud Platform).Trabalhar em colaboração com analistas, engenheiros e cientistas de dados, oferecendo suporte técnico e propondo soluções.Realizar troubleshooting, profiling e debugging de pipelines.Automatizar processos de ingestão, transformação e carga de dados.Monitorar e otimizar rotinas de ETL/ELT visando performance e custo.Requisitos e qualificações:Domínio de PySpark (DataFrame API, particionamento, tuning de jobs Spark).Experiência prática com Google BigQuery (SQL avançado, modelagem, otimização de consultas).Experiência com orquestração de pipelines usando Cloud Composer (Airflow).Proficiência na administração e uso de Dataproc (configuração de clusters, jobs Spark, tuning).Conhecimento de GCP: IAM, Cloud Storage, Cloud Logging, Monitoring, entre outros.Experiência com versionamento (Git), práticas de CI/CD e desenvolvimento de pipelines reprodutíveis.Desejável:DBT Core ou Dataform Metrics Flow Data Vault 2.0 Experiência com ambientes produtivos e de alto volume de dados.Sólido conhecimento em modelagem de dados e arquitetura de Data Lake/Data Warehouse.Boas práticas de desenvolvimento, documentação e padronização de código.Nossos benefícios: ️ Vale refeição no valor de R$ 1.003,48 ao mês;