Desenvolvedor de Dados: Construindo Soluções de Integração de Dados
Nossa equipe busca um profissional experiente em engenharia de dados para construir e otimizar pipelines de dados confiáveis, escaláveis e seguras.
O candidato ideal deve ter forte conhecimento em plataformas de nuvem, práticas modernas de engenharia de dados e perfil analítico para garantir o fluxo eficiente de dados na organização.
* Responsabilidades Principais:
* Projetar, desenvolver e manter pipelines ETL/ELT para ingestão, transformação e entrega de dados estruturados e não estruturados.
* Implementar frameworks de ingestão de dados a partir de múltiplas fontes (bancos de dados, APIs, arquivos, streaming etc.).
* Garantir qualidade, consistência e confiabilidade dos dados por meio de validação, monitoramento e testes automatizados.
* Otimizar fluxos de processamento de dados visando custo e performance.
* Colaborar com Cientistas de Dados, Analistas e áreas de negócio para fornecer datasets limpos, confiáveis e bem documentados.
* Trabalhar com serviços nativos de nuvem (ex.: BigQuery, Dataproc, Dataflow, Databricks, Snowflake) para implementar arquiteturas escaláveis.
* Aplicar boas práticas de CI/CD, versionamento e Infraestrutura como Código (IaC) em pipelines de dados.
* Assegurar conformidade com normas de segurança, governança e privacidade (ex.: PII, GDPR, LGPD).
Qualificações Necessárias:
O candidato deve ter:
* Graduação em Ciência da Computação, Sistemas de Informação, Engenharia ou áreas correlatas;
* Experiência comprovada em engenharia de dados, com foco em construção de pipelines;
* Domínio em SQL, Python e Spark;
* Experiência com plataformas de dados em nuvem (Google Cloud Platform, AWS ou Azure);
* Sólidos conhecimentos em modelagem de dados, data warehouse e arquiteturas lake/lakehouse;
* Vivência com ferramentas de orquestração (Airflow, Cloud Composer, Prefect, Dagster);
* Familiaridade com práticas de DevOps (Git, pipelines CI/CD, Terraform ou similares).
Diferenciais Desejáveis:
O candidato que tiver experiência em:
* Streaming em tempo real (Kafka, Pub/Sub, Kinesis)
* Conhecimentos em containerização (Docker, Kubernetes)
* Vivência com pipelines de machine learning e MLOps
* Experiência com catálogos de dados, metadata management e ferramentas de governança
Competências Comportamentais:
* Perfil analítico e orientado à resolução de problemas;
* Capacidade de comunicar conceitos técnicos complexos de forma clara a públicos não técnicos;
* Trabalho em equipe, postura proativa e colaborativa;
* Inglês fluente (escrito e falado);
* Espanhol será considerado um diferencial.