Nível: Analista
Cursos de: ANÁLISE E DESENVOLVIMENTO DE SISTEMAS,Engenharia,Engenharia da computação,Tecnologia da Informação
Escolaridade: Graduação - ANÁLISE E DESENVOLVIMENTO DE SISTEMAS,Engenharia,Engenharia da computação,Tecnologia da Informação - Completo
Tipo de contrato: CLT
Jornada de trabalho: Segunda à sexta-feira das 07h30 às 17h18.Home Office
Disponibilidade para home-office
Benefícios: Vale alimentação com desconto de R$1,00 de R$ 260,00, Plano de saúde, Assistência odontológica, Day-off no seu aniversário, Premiação Trimestral, Premiação Anual, TotalPass
Responsabilidades Da Posição
Sobre o desafio da área
Estamos em plena transição para uma arquitetura Lakehouse, com parte dos pipelines já em produção e outras ainda em migração. Nosso ambiente combina estruturas legadas e construção de soluções do zero, o que torna o trabalho dinâmico, técnico e cheio de aprendizados.
Hoje, temos um desafio importante: estruturar e padronizar os fluxos de trabalho entre Engenharia de Dados, BI e Análise. Além de construir pipelines e conectar APIs, também estamos trabalhando para melhorar nossa organização, garantir consistência nas entregas e criar uma base sólida para o crescimento da área.
A plataforma central é o Databricks, e nossas soluções rodam em Google Cloud Platform (GCP). Há uma boa cultura de dados na empresa — a área de dados já é consolidada, com stakeholders que valorizam e consomem dados — mas a engenharia de dados em si ainda está sendo estruturada, o que traz espaço real pra crescer e influenciar.
O perfil ideal para essa vaga é de alguém que está no início da carreira, mas quer aprender rápido e colocar a mão na massa.
Aqui, você vai trabalhar com profissionais experientes, mas desde o início terá desafios técnicos reais — é comum que engenheiros juniores participem ativamente da construção de pipelines e automações do zero.
Também é importante que você tenha flexibilidade para lidar com mudanças de escopo e prioridades, já que atuamos muito próximos do negócio.
Requisitos Obrigatórios Para a Posição
Requisitos e qualificações
* Superior Completo
* Experiência (profissional ou em projetos) com pipelines de dados e ferramentas ETL/ELT
* Familiaridade com bancos de dados SQL e NoSQL
* Experiência ou projetos com SQL e Python
* Conhecimento em Spark, PySpark, Databricks ou conceitos de Data Lake / Lakehouse
* Prática com versionamento de código (Git)
Entregas e Resultados Esperados Para a Posição
️ Responsabilidades e atribuições
* Apoiar na construção e manutenção de fluxos ETL/ELT, garantindo qualidade e disponibilidade dos dados
* Auxiliar na criação e otimização de automações de dados
* Colaborar com o time na evolução da arquitetura de dados e aplicação de boas práticas
* Trabalhar com tecnologias em nuvem, especialmente em Google Cloud Platform (GCP)
* Atuar com integração de APIs, centralizando os dados no Databricks
Sobre a Empresa
Reconhecida como um excelente lugar para trabalhar (GPTW), valorizamos o ambiente de trabalho e o bem-estar dos nossos colaboradores. Somos uma indústria que baseia suas decisões em dados, promovendo um ambiente de crescimento e desenvolvimento contínuo.
Nosso Ambiente De Trabalho é Ideal, Se Você
* Foca na Excelência: Sempre busca superar as expectativas dos clientes
* Persegue Resultados: Tem obsessão por alcançar resultados cada vez melhores
* Colabora e Contribui: Está sempre disposto a arregaçar as mangas e ajudar onde for necessário
* Sonha Grande: Acredita que o céu é o limite e tem ambições elevadas
* Lidera com Inspiração: É uma referência e sustentação para os demais
Todas as nossas vagas são aplicáveis às pessoas com deficiência (PCD).
Se você está em busca de uma nova oportunidade e deseja fazer parte de uma empresa que valoriza a inovação e o comprometimento com resultados, venha fazer parte do nosso time!
#vemprawap #vemserlegendario #J-18808-Ljbffr