? Vaga | Engenheiro(a) de Dados Pleno e Sênior ? Local: Remoto ou Híbrido (Escritórios Solo Network SP ou PR)? Modelo de contratação: Cooperado? Área: Dados, IA e Modernização ? Sobre a Solo Network A Solo Network é uma das principais integradoras Microsoft da América Latina, reconhecida por entregar projetos de alto impacto, com excelência técnica e forte proximidade com seus clientes. Estamos em plena expansão da nossa prática de Dados e IA e buscamos profissionais que queiram ir além da execução: aqui, você terá espaço para protagonizar soluções, influenciar arquiteturas e gerar valor real para grandes organizações. Se você é movido por desafios técnicos, aprendizado contínuo e gosta de trabalhar com pessoas que realmente entendem de dados, seu lugar pode ser aqui. ? Sobre a Vaga Buscamos Engenheiros(as) de Dados Pleno e Sênior para atuar em projetos de consultoria estratégica, apoiando clientes na construção de plataformas modernas de dados, pipelines escaláveis e ambientes robustos, seguros e governáveis. Você fará parte de um time que atua com autonomia, profundidade técnica e colaboração, lidando com cenários complexos e tecnologias de ponta. ? Principais Responsabilidades Desenvolver pipelines de dados para ingestão, transformação e entrega em escala; Atuar com arquiteturas modernas como Lakehouse, Data Mesh e Medallion; Garantir qualidade, rastreabilidade, versionamento e reprocessamento seguro de dados; Apoiar a implementação de práticas de DataOps, monitoramento e observabilidade; Construir soluções com foco em performance, governança e segurança; Colaborar com arquitetos, cientistas e analistas de dados; Participar de discussões técnicas com clientes, recomendando boas práticas e soluções eficientes. Requisitos Obrigatórios Experiência com ETL/ELT para coleta, transformação e carga de dados; Atuação com arquiteturas de dados em nuvem e on-premise (Azure e/ou Google Cloud); Monitoramento e otimização de pipelines de dados; Estratégias de qualidade, validação e integridade de dados; Implementação de Data Lakes e Data Warehouses; Automação de processos com Python e SQL; Conhecimento em: Python e SQL avançado Bancos relacionais e não relacionais (SQL Server, PostgreSQL, MongoDB, etc.) Azure Data Factory, Synapse, Databricks, Fabric ou similares Versionamento com Git Conceitos de DataOps e Governança de Dados Documentação técnica clara e estruturada. Diferenciais (Desejáveis) Experiência com dbt, Airflow, Dagster; Vivência com plataformas como Databricks, Snowflake, BigQuery; Certificações Microsoft (DP-203, DP-700, entre outras); Atuação em projetos de IA, MLOps ou Analytics avançado. ? O que oferecemos Projetos desafiadores com grandes empresas de diversos setores; Time técnico experiente, colaborativo e aberto a novas ideias; Liberdade para propor soluções e evoluir tecnicamente; Contato direto com tecnologias Microsoft e soluções emergentes; Incentivo ao aprendizado contínuo, com programas de certificação, treinamentos e comunidades técnicas.