Vaga - Data Engineer Sênior Lead / Senior Data Engineer LeadObjetivo do Cargo: Ser responsável por desenhar, construir e manter pipelines de dados escaláveis, confiáveis e performáticos, garantindo que os dados estejam disponíveis, íntegros e prontos para consumo analítico e operacional. Este profissional atua como base da stack de dados, conectando fontes, plataformas e consumidores de dados com excelência técnica.Principais ResponsabilidadesArquitetura e Plataforma de DadosProjetar e evoluir arquiteturas de dados (Data Lake, Data Warehouse, Lakehouse).Definir padrões técnicos para ingestão, transformação e armazenamento de dados.Garantir escalabilidade, segurança e alta disponibilidade da plataforma de dados.Trabalhar em conjunto com times de cloud e segurança.Ingestão e Pipelines de DadosDesenvolver pipelines de dados robustos (batch e streaming).Integrar dados de múltiplas fontes (APIs, bancos transacionais, eventos, arquivos).Implementar processos de ETL/ELT com foco em eficiência e confiabilidade.Monitorar falhas, latência e SLA dos pipelines.Modelagem e Camada AnalíticaConstruir modelos de dados analíticos (fato/dimensão, camadas bronze/silver/gold).Trabalhar em parceria com Analytics Engineers e BI.Garantir consistência semântica e performance das consultas.Otimizar custos e uso de recursos computacionais.Qualidade, Governança e ObservabilidadeImplementar validações automáticas de qualidade de dados.Criar logs, métricas e alertas para observabilidade dos dados.Apoiar iniciativas de governança, catalogação e lineage.Assegurar conformidade com LGPD e políticas de dados.DevOps & DataOpsVersionar código e pipelines (Git).Implementar CI/CD para dados.Automatizar deploys e testes de pipelines.Trabalhar com infraestrutura como código (Terraform, CloudFormation – diferencial).Colaboração com Negócio e Times TécnicosAtuar como parceiro técnico de Analytics, Ciência de Dados e BI.Traduzir necessidades de negócio em soluções de engenharia.Apoiar a democratização do acesso a dados confiáveis.Atuar como referência técnica e mentor interno.Requisitos Técnicos (Hard Skills)SQL avançado (otimização, CTEs, window functions).Python (ou Scala/Java) para pipelines de dados.Experiência prática com AWS, GCP ou Azure.Experiência com ferramentas de ETL/ELT (Airflow, dbt, Fivetran, Stitch, etc.).Experiência com Data Warehouses (BigQuery, Redshift, Snowflake).Experiência com Data Lakes (S3, GCS, ADLS).Conhecimento sólido em modelagem de dados analítica.Versionamento com Git.Nível Superior completo Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatasDiferenciaisStreaming (Kafka, Pub/Sub, Kinesis).Lakehouse (Delta Lake, Iceberg, Hudi).Observabilidade de dados (Great Expectations, Monte Carlo, Soda).Infraestrutura como código (Terraform).Containers (Docker, Kubernetes).Experiência com ferramentas de catalogação (Data Catalog, Amundsen, Collibra).Informações AdicionaisModelo de contratação PJModelo da Atuação: Presencial.Local: Morumbi-SPEste Processo Será Conduzido Considerando As Seguintes EtapasAvaliação da inscrição;Papo com a QiBit;Papo com o Cliente;Contratação.As etapas citadas acima poderão sofrer alterações de acordo com o andamento do processo seletivo. Mas não se preocupe, estaremos sempre te atualizando :)Acredita que este desafio é pra você? Clique em “Candidatar-se para vaga”, já estamos te esperando!
#J-18808-Ljbffr