Pessoa Engenheira de Dados - Vaga afirmativa para pessoas negras
A vaga atual é para o escritório do Brasil e trabalhamos em um modelo Free Office.
Nós da Artefact LatAm acreditamos e vivemos uma cultura com base na empatia!
Um ambiente de trabalho saudável é um lugar onde todas as vozes são ouvidas, respeitadas e valorizadas.
Temos como nosso compromisso a construção de um ambiente mais diverso e inclusivo, porque a empatia é para todas as pessoas, independentemente de etnia, cor, gênero, orientação sexual, identidade de gênero, deficiência ou crença religiosa.
Queremos conosco mentes e corações incríveis! Venha ser Artefact!
Quais serão suas responsabilidades:
Você se juntará à nossa equipe de Dados e Consultoria, que ajuda os clientes a transformar e melhorar sua estratégia de dados aplicando análises avançadas para gerar insights que criam valor de negócio a partir de big data e inteligência artificial.
Inovar. Você trabalhará com sua equipe, composta por consultores, cientistas de dados, e engenheiros, para identificar as necessidades dos clientes e definir soluções inovadoras.
Aprender e Compartilhar. Você trabalhará em uma equipe colaborativa que promove o compartilhamento de conhecimento. Você aprenderá com outras pessoas, compartilhará conhecimento e ficará a par das novidades/atualizações do setor.
Desenvolver. Você participará da solução do início ao fim. Com o auxílio de engenheiros seniores, você gerenciará a concepção e a implementação, além de otimizar o desempenho e a escalabilidades.
Atuar em toda a cadeia de valor dos projetos (criação de infraestruturas e plataformas, coleta de dados, aplicação de modelos de aprendizado de máquina, criações de APIs REST, de front-ends, de testes, implementações contínuas).
Popularizar termos técnicos ou soluções para perfis mais orientados a negócios, pode trabalhar em uma equipe com perfis muito diversificados.
Priorizar suas tarefas, respeitar prazos e se levantar a mão em caso de riscos ou problemas.
Ter cursado graduação em ciência da computação, estatística, engenharia, economia ou uma área relacionada.
Curiosidade: você está sempre buscando soluções inovadoras para seus clientes. Você está envolvido em toda a cadeia de valor, que pode ser front-end, back-end, infraestrutura de big data, modelo de ML.
Colaboração: o compartilhamento de conhecimento é essencial para você e você participa ativamente da difusão de informações dentro da Artefact.
Empreendedorismo: você traz soluções, novas ideias, inovações.
O que oferecemos:
Free office (trabalhe de casa ou de onde quiser!)
Seguros: Vida, saúde e odontológico
Encontros Bimestrais (Famoso “Get Together” onde nos encontramos para estarmos juntos, com oficinas, palestras, treinamentos e aquele happy hour!)
Woba (pode marcar para trabalhar em coworking onde quiser!)
Avaliações semestrais (com oportunidade de promoção)
Por que você deveria se juntar a nós:
Artefact é o lugar para estar: venha e construa o futuro da área de dados.
Progresso: cada dia oferece novos desafios e novas oportunidades de aprender.
Cultura: Empatia e Colaboração está no nosso DNA.
Empreendedorismo: você se juntará a uma equipe de empreendedores motivados. Não desistiremos até que façamos uma grande diferença nesta indústria!
Responsabilidades e atribuições – Minsait
Buscamos um Engenheiro de Dados com sólida vivência em ambientes desafiadores e dinâmicos, especialmente no setor financeiro. Este profissional atuará de forma estratégica e operacional em projetos de dados, sendo responsável por desenhar, construir e manter pipelines de dados eficientes e escaláveis que suportem tomadas de decisão baseadas em dados.
Responsabilidades e atividades do dia a dia:
Desenvolver e manter fluxos de ingestão, transformação e entrega de dados, garantindo que as informações estejam acessíveis, íntegras e atualizadas para os usuários de negócio.
Trabalhar em conjunto com analistas, cientistas de dados e equipes de negócio, compreendendo suas necessidades e traduzindo essas demandas em soluções de dados viáveis e eficientes.
Modelar dados estruturados e não estruturados, assegurando sua organização, governança e consistência ao longo dos projetos.
Garantir a qualidade dos dados, implementando processos de validação, auditoria e monitoramento contínuo.
Investigar e solucionar problemas relacionados à performance, falhas de pipeline e inconsistências nos dados, atuando de forma proativa para evitar recorrências.
Documentar processos, fluxos e regras de negócio aplicadas nas soluções desenvolvidas, promovendo a transparência e facilitando a manutenção dos sistemas de dados.
Participar ativamente de reuniões técnicas e de alinhamento com stakeholders, comunicando de forma clara os avanços, riscos e limitações dos projetos em andamento.
Adaptar-se rapidamente a novos contextos e demandas, demonstrando curiosidade e iniciativa para aprender novas abordagens, padrões e boas práticas.
Habilidades:
Python (Avançado)
SQL (Avançado)
PySpark (Avançado)
Databricks (Avançado)
Modelo de contratação CLT.
Plano de Saúde subsidiado pela empresa para o titular.
Opção de inclusão de dependentes no Plano de Saúde com desconto em folha de pagamento.
Assistência Odontológica (opcional).
Vale Refeição no cartão Flash Benefícios.
POP - Programa de Orientação Pessoal que visa oferecer suporte emocional e aconselhamento com orientação confidencial nas áreas psicológica, jurídica, financeira, social e pet sem custo para titular e dependentes legais.
Plataforma de Saúde Wellhub-Gympass (Acesso a mais de 700 academias em todo o Brasil com planos descontado em folha de pagamento).
Convênio com o SESC para titular e dependentes.
Convênios para descontos com instituições de ensino (graduação e pós-graduação) e escola de idiomas.
Seguro de vida em grupo.
Engenheiro de Dados Júnior – Databricks
Como Engenheiro de Dados Júnior, seu papel será crucial no apoio à construção e sustentação de pipelines de dados robustos e eficientes, principalmente no ambiente Databricks. Você será responsável por garantir a entrega contínua de dados transformados e governados, desde a ingestão até a disponibilização para consumo analítico.
Como será seu dia a dia:
Apoiar a construção e sustentação de pipelines de dados no Databricks, utilizando notebooks, jobs e pipelines;
Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados;
Ingerir, transformar e disponibilizar dados para consumo analítico;
Criar e manter tabelas Delta e views para suporte a dashboards e análises;
Atuar com compartilhamento e consumo de dados via Delta Sharing;
Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões;
Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting;
Corrigir causas-raiz e propor melhorias de confiabilidade e performance;
Implementar e/ou apoiar validações de qualidade de dados;
Documentar pipelines, regras de negócio e a linhagem básica dos dados;
Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.
Para esta vaga, é essencial:
Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics);
Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks);
Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível);
Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas);
Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos;
Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos);
Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza;
Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.
Você pode se destacar se:
Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento).
Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança).
Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados).
Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions).
Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas).
Possuir experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos).
Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards).
Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).
Senior Data Engineer – Volpi
Buscamos um(a) Engenheiro(a) de Dados para atuar em um ambiente robusto de dados, com foco em construção e evolução de pipelines em larga escala, integração de múltiplas fontes e processamento distribuído em cloud.
Desenhar, implementar e evoluir a arquitetura de dados da Volpi, com foco em um modelo de lakehouse na AWS;
Estruturar pipelines de ingestão, transformação e consumo de dados (batch e, futuramente, streaming);
Trabalhar com dados sensíveis de crédito e pessoas, seguindo padrões rigorosos de segurança, governança e compliance;
Lidar com dados distribuídos em múltiplos silos, conectando fontes e criando visões mais maduras para o negócio;
Atender demandas estratégicas de diferentes áreas (crédito, operações, produto, engenharia);
Organizar e evoluir o data lake existente (já temos estrutura inicial em AWS, Athena e S3);
Criar a base para produtos de dados futuros, incluindo análises avançadas de crédito e soluções orientadas a dados;
Atuar de forma full‑cycle, da concepção técnica à implementação, operação e evolução em produção.
O que esperamos de você:
Experiência sólida como Data Engineer, com forte mentalidade de engenharia (Data Engineer aqui é dev);
Domínio de Python e SQL para construção de pipelines e soluções de dados em produção;
Experiência prática com AWS, especialmente serviços como S3, Athena e IAM;
Conhecimento e uso de Infraestrutura como Código (IaC);
Vivência com pipelines de dados em produção, lidando com volumes relevantes e dados sensíveis;
Forte preocupação com segurança da informação, padrões de projeto e boas práticas de engenharia;
Experiência em ambientes de startup, lidando com pouco legado e muita construção do zero;
Autonomia para tomar decisões técnicas e conduzir projetos end‑to‑end;
Capacidade de traduzir necessidades de negócio em soluções de dados escaláveis;
Comunicação clara e estruturada, especialmente em ambientes assíncronos.
Será considerado um diferencial:
Experiência com arquiteturas de dados modernas, como lakehouse;
Uso de ferramentas de orquestração e transformação de dados (ex: Airflow, dbt ou similares);
Atuação em domínios complexos e regulados, como financeiro, crédito ou seguros;
Vivência na construção e estruturação de plataformas ou áreas de dados desde o início.
#J-18808-Ljbffr