Somos a Framework!
Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia.
Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia.
Vem com a gente!
*Todas as nossas vagas são abertas para PCDs!
Benefícios?
É claro que temos!
?? Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais
?? Auxílio home office no valor de R$ 150,00 mensais
?? Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais
?? Plano de saúde e auxílio odontológico de alta qualidade
?? Seguro de vida que cobre doenças ocupacionais
?? Participação nos lucros
?? Gympass e TotalPass para se manter saudável
?? Licença maternidade estendida: 180 dias
?? Licença paternidade estendida: 30 dias
?? Desconto em consultas nutricionais
?? Desconto em terapia online
??? Clube de benefícios para quem gosta de comprar com descontos
?? Knowledge transfer através do Frame KT
?? Plataforma de cursos e atividades educativas para as crianças e adolescentes da sua família
?? Bonificação por indicação de novos colaboradores
E não paramos por aí!
?? Horário flexível
?? No dress code
?? Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas
?? Ambiente leve, flexível e cultura colaborativa.
E qual será a sua missão na Framework?
Desenhar e Desenvolver Pipelines de Dados:Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.
Integração e Processamento de Dados:Construir arquiteturas orientadas a eventos para viabilizar o processamento de dados em tempo real e a integração fluida entre sistemas.
Gestão de Infraestrutura em Nuvem:Utilizar serviços da AWS (como S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.
Desenvolvimento e Otimização de Código:Escrever código limpo, eficiente e de fácil manutenção em Python para ingestão, transformação e orquestração de dados.
Colaboração em Ambientes Ágeis:Trabalhar em estreita colaboração com times multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.
Qualidade e Governança de Dados:Implementar boas práticas de qualidade de dados, monitoramento e conformidade para garantir integridade, consistência e segurança dos dados.
Otimização de Performance:Otimizar pipelines de dados e consultas em ambientes em nuvem visando desempenho, escalabilidade e eficiência de custos.
Mentoria e Liderança:Oferecer orientação técnica a membros juniores do time, promovendo uma cultura de aprendizado contínuo e melhoria constante.
Documentação e Compartilhamento de Conhecimento:Documentar projetos técnicos, processos e fluxos de trabalho para garantir a manutenção e o repasse de conhecimento.
O que é preciso para fazer parte do time?
Formação superior em Engenharia da Computação, Ciência da Computação, Tecnologia da Informação, Ciência de Dados ou áreas correlatas.
Pelo menos 5 anos de experiência como Engenheiro de Dados ou em funções similares, com foco em desenvolvimento de pipelines e soluções de dados em nuvem.
Domínio avançado de Python para processamento de dados, automações e scripts.
Experiência prática comDatabricks, incluindo uso de Spark, Delta Lake e workflows da plataforma.
Sólido conhecimento emserviços AWS, como S3, Redshift, Glue, Lambda, Kinesis e Athena, para construção e gestão de infraestrutura de dados.
Especialista em processosETL/ELT, utilizando ferramentas como Apache Airflow, AWS Glue ou similares.
Experiência comarquitetura orientada a eventos, como AWS Kinesis e Kafka, para pipelines em tempo real.
Vivência em ambientes ágeis (Scrum ou Kanban), com boa capacidade de adaptação a times multidisciplinares.
Proficiência embancos de dados relacionais e não relacionais, como PostgreSQL, MySQL, DynamoDB e MongoDB, incluindo otimização de queries SQL.
Forte entendimento demodelagem de dados(ex: star schema, snowflake) voltada para análise e relatórios.
Familiaridade com práticas DevOps, incluindoCI/CD, versionamento (Git)e infraestrutura como código (Terraform, AWS CloudFormation).
Excelentes habilidades analíticas e de resolução de problemas, com foco em entregar soluções escaláveis e eficientes.
Boa comunicação escrita e verbal, com capacidade de colaborar com stakeholders técnicos e não técnicos.
Será um diferencial se você:
Inglês:nível intermediário a avançado.
Experiência com tecnologias de conteinerização(ex: Docker, Kubernetes) para implantação de aplicações de dados.
Conhecimento em frameworks de governança de dados e normas de conformidade(ex: GDPR, CCPA).
Familiaridade com ferramentas adicionais de big data, como Apache Spark, Hadoop ou Snowflake.
Certificações em AWS(ex: AWS Certified Data Analytics, AWS Certified Solutions Architect) ouDatabricks.
A NOSSA EVOLUÇÃO É CRESCENTE!
E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios!
Gostou da oportunidade?
Vamos juntos e? faça parte da nossa história!
?? #vempraframe