Construa soluções de dados escaláveis e robustas
Nossa equipe é composta por profissionais apaixonados pela tecnologia que buscam inovar e criar soluções diferenciais. Ao se juntar a nós, você estará trabalhando em projetos desafiadores e contribuindo para o crescimento contínuo da nossa empresa.
Benefícios:
1. Vale alimentação e refeição no cartão Swile, com mais de R$ 1.200,00 mensais.
2. Auxílio home office no valor de R$ 150,00 mensais.
4. Seguro de vida que cobre doenças ocupacionais.
5. Participação nos lucros.
6. Gympass e TotalPass para se manter saudável.
7. Tribass para trocar moedas digitais por hospedagens e passagens aéreas com cobertura mundial.
8. Licença maternidade estendida: 180 dias.
9. Licença paternidade estendida: 30 dias.
10. Desconto em consultas nutricionais.
11. Desconto em terapia online.
12. Clube de benefícios para quem gosta de comprar com descontos.
13. Knowledge transfer através do Frame KT.
14. Bonificação por indicação de novos colaboradores.
15. E não paramos por aí
16. Horário flexível.
17. No dress code.
18. Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas.
19. Ambiente leve, flexível e cultura colaborativa.
20. Garantir estabilidade, escalabilidade e governança das plataformas (AWS + GCP).
21. Liderar a evolução da arquitetura e apoiar o time na construção de uma operação previsível, automatizada e de alta qualidade.
O que é preciso para fazer parte do time?
* Dominio em arquitetura e engenharia de dados, incluindo: Airflow, Airbyte, Spark/PySpark, EMR, EKS/Kubernetes, S3/Lake, Redshift, BigQuery e DataFlow.
* Experiência com pipelines de dados de alta criticidade, com foco em modularização, automação e confiabilidade.
* Forte conhecimento em boas práticas de versionamento e desenvolvimento: Git, ambientes DEV/STG/PRD, CI/CD, testes e Data Quality.
* Vivência em governança de Data Lakes e Data Warehouses, garantindo reutilização de camadas e evitando duplicidades.
* Capacidade de traduzir regras de negócio complexas em soluções técnicas claras, robustas e escaláveis.
* Experiência atuando como referência técnica, incluindo mentoria e apoio a times de engenharia.
* Ingestão e Orquestração: Airflow, Airbyte, Lambdas, DataFlow, Scheduled Queries.
* Processamento Distribuído: PySpark (forte), Spark SQL, EMR, Dataproc, DLT (desejável).
* Cloud: AWS (EKS, EMR, Lambda, S3, Redshift), GCP (BigQuery, DataFlow, Composer).
* Infra as Code & DevOps: Terraform, Docker, Kubernetes, CI/CD.
* Data Quality & Linhagem: Great Expectations, DataHub ou similares.
* Governança & Segurança: IAM, VPN, segregação de ambientes.
Será um diferencial se você:
* Experiência com modernização de arquiteturas legadas.
* Vivência em ambientes multicloud.
* Forte atuação com DataOps e automação avançada.
* Experiência prévia como Tech Lead ou referência técnica em times de dados.