Engenheiro(a) de Dados
Estamos em busca de um(a) Engenheiro(a) de Dados para atuar no desenvolvimento e evolução dos nossos processos de dados, garantindo qualidade, integração e eficiência das informações. Procuramos um perfil analítico, autônomo e com forte capacidade de resolução de problemas, que contribua ativamente para a estruturação e otimização do nosso ambiente de dados.
Principais Responsabilidades
Desenvolver e manter processos de integração e tratamento de dados;
Realizar ETL (extração, transformação e carga) a partir de múltiplas fontes;
Garantir a qualidade, integridade e consistência dos dados;
Trabalhar com integração via APIs (consumo de dados);
Apoiar na criação e manutenção de dashboards no Tableau, quando necessário;
Propor melhorias e otimizações nos processos e fluxos de dados.
Requisitos Obrigatórios
Experiência sólida com SQL avançado (queries complexas, performance e grandes volumes);
Forte experiência com ETL;
Experiência com integração de dados entre diferentes sistemas;
Conhecimento em consumo de APIs (REST, autenticação, tratamento de dados);
Vivência com múltiplas fontes de dados (bancos, APIs, arquivos, etc.);
Capacidade de atuar com autonomia e senso de priorização.
Competências
Pensamento analítico;
Capacidade de resolução de problemas;
Organização e gestão de prioridades;
Comunicação clara;
Autonomia na execução.
Diferenciais
Experiência com ferramentas de ETL (ex: Pentaho ou similares);
Conhecimento em modelagem de dados;
Conhecimento em Python;
Vivência com Tableau.
Engenheiro de Dados & Analytics – Quick!
Engenheiro de Dados & Analytics – construa inteligência de dados que impacta o negócio na Quick!
Estamos em busca de um(a) Engenheiro de Dados & Analytics que queira atuar na construção e evolução de uma estrutura moderna de dados, contribuindo diretamente para decisões estratégicas e desenvolvimento de produtos orientados a dados.
️ Atuar na frente de Data Lake & Engenharia de Dados, sendo o elo entre a companhia e o time técnico do fornecedor. Você será responsável por traduzir demandas, avaliar soluções propostas, testar entregas e garantir o funcionamento completo das soluções de ponta a ponta.
️ Construir e manter pipelines de dados (ETL), garantindo robustez, confiabilidade e escalabilidade. Também irá desenvolver automações de workflows utilizando ferramentas como n8n ou similares, aumentando eficiência operacional e reduzindo atividades manuais.
Explorar e analisar dados da companhia, identificando padrões, oportunidades e insights relevantes para o negócio. Você irá propor e estruturar features, além de rodar, avaliar e iterar sobre modelos preditivos quando aplicável.
Responsabilidades e atribuições
Definir e estruturar a arquitetura de dados da organização;
Desenvolver e orientar a construção de pipelines de dados (batch e streaming);
Garantir a qualidade, integridade e governança dos dados;
Apoiar a implementação de soluções voltadas para inteligência artificial;
Atuar em conjunto com times técnicos e de negócio;
Otimizar o uso de recursos em ambientes de nuvem.
Requisitos e qualificações
Superior completo nas áreas de Tecnologia;
Conhecimento com arquitetura de dados e engenharia de dados;
Conhecimento em Lake House e Data Mesh Vivência com ferramentas:
Domínio de Python e SQL (nível intermediário/avançado – perfil próximo a DBA).
Informações adicionais
Vale-alimentação ou vale-refeição;
Desconto em cursos, universidades e instituições de idiomas;
Academia Stefanini — plataforma com cursos on-line, gratuitos, atualizados e com certificado;
Clube de vantagens para consultas e exames;
Assistência médica.
Engenheiro de Dados Júnior (Databricks)
Como Engenheiro de Dados Júnior, seu papel será crucial no apoio à construção e sustentação de pipelines de dados robustos e eficientes, principalmente no ambiente Databricks.
Como será seu dia a dia?
Apoiar a construção e sustentação de pipelines de dados no Databricks, utilizando notebooks, jobs e pipelines;
Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados;
Ingerir, transformar e disponibilizar dados para consumo analítico;
Criar e manter tabelas Delta e views para suporte a dashboards e análises;
Atuar com compartilhamento e consumo de dados via Delta Sharing;
Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões;
Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting;
Criar correções de causas-raiz e propor melhorias de confiabilidade e performance;
Implementar e/ou apoiar validações de qualidade de dados;
Documentar pipelines, regras de negócio e a linhagem básica dos dados;
Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.
Para esta vaga, é essencial:
Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics);
Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks);
Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível);
Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas);
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos;
Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos);
Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza;
Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.
Você pode se destacar se:
Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento);
Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança);
Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados);
Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions);
Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas);
Possuir experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos);
Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards);
Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).
Senior Data Engineer – Volpi
Buscamos um Senior Data Engineer para liderar a construção da engenharia de dados da Volpi desde a base.
O que esperamos de você:
Experiência sólida como Data Engineer, com forte mentalidade de engenharia;
Domínio de Python e SQL para construção de pipelines e soluções de dados em produção;
Experiência prática com AWS, especialmente serviços como S3, Athena e IAM;
Conhecimento e uso de Infraestrutura como Código (IaC);
Vivência com pipelines de dados em produção, lidando com volumes relevantes e dados sensíveis;
Forte preocupação com segurança da informação, padrões de projeto e boas práticas de engenharia;
Experiência em ambientes de startup, lidando com pouco legado e muita construção do zero;
Autonomia para tomar decisões técnicas e conduzir projetos end-to-end;
Capacidade de traduzir necessidades de negócio em soluções de dados escaláveis;
Comunicação clara e estruturada, especialmente em ambientes assíncronos.
Será considerado um diferencial:
Experiência com arquiteturas de dados modernas, como lakehouse;
Uso de ferramentas de orquestração e transformação de dados (ex: Airflow, dbt ou similares);
Atuação em domínios complexos e regulados, como financeiro, crédito ou seguros;
Vivência na construção e estruturação de plataformas ou áreas de dados desde o início.
Modelo remoto prioritário
Plano de saúde Alice (100% pago para titular e dependentes)
R$1.000/ano de auxílio educação
30 dias de descanso remunerado + 10 dias de recesso de fim de ano
Day off no aniversário
TotalPass (incluindo TotalMind)
Acesso ao Wework
Encontros presenciais para troca e conexão com a nossa Tribo
Engenheiro de Dados e ML – Jaraguá do Sul
Construção e implementações de arquiteturas com Data Warehouse e Datalake; Liderar como referência soluções técnicas de Data Analytics; Criar e definir modelos de repositórios de dados; Desenvolver estratégias de aquisição de dados, recuperação de informação, implementação de dutos de processamento e armazenamento; Apoiar nas definições técnicas do ecossistema de Big Data; Desenvolver e manter processos de consumo, tratamento, controle/segurança e disponibilização de dados para diferentes consumidores; Levantando possíveis riscos de acordo com o parecer técnico pelas áreas de apoio emitidas; Apoiar/viabilizar testes de desempenho (desempenho); Apoiar a migração de dados de sistemas legados para novas soluções.
Diferenciais:
Experiência prévia com integrações de dados em Salesforce Marketing Cloud ou outras plataformas de CRM e automação de marketing.
Certificação em Databricks ou tecnologias relacionadas.
Experiência com serviços de nuvem (AWS, Azure ou Google Cloud).
Habilidade em modelagem de dados voltada para análise preditiva ou personalização de campanhas.
Localidade da posição: Blumenau/SC
Diversity and Inclusion
Para repensar o futuro, é essencial garantir ambientes mais diversos e inclusivos. Por isso, incentivamos fortemente a candidatura de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência.
Benefícios
Vale alimentação e refeição no cartão Sólides, com mais de R$1.200,00 mensais.
Auxílio home office no valor de R$150,00 mensais.
#J-18808-Ljbffr