Transformador de Dados
Descrição do Cargo:
Somos uma empresa que está sempre evoluindo e crescendo, alcançando grandes marcas em todo o mundo através da transformação digital. Nossa jornada é de desafios reais, crescimento contínuo e contato diário com referências em tecnologia.
Vantagens:
* Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais
* Auxílio home office no valor de R$ 150,00 mensais
* Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais
* Plano de saúde e auxílio odontológico de alta qualidade
* Seguro de vida que cobre doenças ocupacionais
* Participação nos lucros
* Gympass e TotalPass para se manter saudável
* Tribass para trocar moedas digitais por hospedagens e passagens aéreas com cobertura mundial
* Licença maternidade estendida: 180 dias
* Licença paternidade estendida: 30 dias
* Desconto em consultas nutricionais
* Desconto em terapia online
* Clube de benefícios para quem gosta de comprar com descontos
Requisitos:
1. Domínio em arquitetura e engenharia de dados, incluindo: Airflow, Airbyte, Spark/PySpark, EMR, EKS/Kubernetes, S3/Lake, Redshift, BigQuery e DataFlow.
2. Experiência com pipelines de dados de alta criticidade, com foco em modularização, automação e confiabilidade.
3. Forte conhecimento em boas práticas de versionamento e desenvolvimento: Git, ambientes DEV/STG/PRD, CI/CD, testes e Data Quality.
4. Vivência em governança de Data Lakes e Data Warehouses, garantindo reutilização de camadas e evitando duplicidades.
5. Capacidade de traduzir regras de negócio complexas em soluções técnicas claras, robustas e escaláveis.
6. Experiência atuando como referência técnica, incluindo mentoria e apoio a times de engenharia.
7. Ingestão e Orquestração: Airflow, Airbyte, Lambdas, DataFlow, Scheduled Queries.
8. Processamento Distribuído: PySpark (forte), Spark SQL, EMR, Dataproc, DLT (desejável).
9. Cloud: AWS (EKS, EMR, Lambda, S3, Redshift), GCP (BigQuery, DataFlow, Composer).
10. Infra as Code & DevOps: Terraform, Docker, Kubernetes, CI/CD.
11. Data Quality & Linhagem: Great Expectations, DataHub ou similares.
12. Governança & Segurança: IAM, VPN, segregação de ambientes.
O que é preciso para fazer parte do nosso time?
Será um diferencial se você:
* Experiência com modernização de arquiteturas legadas
* Vivência em ambientes multicloud
* Forte atuação com DataOps e automação avançada
* Experiência prévia como Tech Lead ou referência técnica em times de dados
Nossa evolução é crescente e precisamos de pessoas que agreguem propondo ideias, soluções e desafios. Vamos juntos e faça parte da nossa história!