Descrição da Função:
* Criar e gerenciar fluxos de dados confiáveis e escaláveis.
* Asegurar a qualidade dos dados.
* Otimizar performance.
Responsabilidades Principais:
* Criar e gerenciar pipelines de dados (ETL/ELT): Desenvolver fluxos automatizados e confiáveis para extrair, transformar e carregar dados de diversas fontes, utilizando ferramentas de orquestração.
* Assegurar a qualidade dos dados: Implementar processos para monitorar a qualidade e a integridade dos dados, identificando e corrigindo falhas na estrutura para evitar comprometimento das análises e jornadas.
* Otimizar performance: Monitorar o desempenho dos sistemas de dados e implementar melhorias para garantir o processamento rápido e eficiente de consultas e análises.
Habilidades e Qualificações Requeridas:
* Linguagens de Programação: Proficiência em SQL (Procedures, DML, DDL, Pipelines) & Python.
* Plataformas de Nuvem: Experiência com serviços de nuvem (GCP, Amplitude, Salesforce Marketing Cloud) para armazenamento e processamento de dados.
* Ferramentas de Orquestração: Airflow e Cloud Functions.
* Engenharia de Software: Conhecimento em boas práticas de codificação, versionamento (Git) e testes.
* Capacidade de Resolução de Problemas e Pensamento Crítico: Habilidade analítica para identificar gargalos, depurar sistemas complexos e encontrar soluções eficazes de forma proativa.
* Comunicação Eficaz: Clareza para explicar conceitos técnicos complexos para públicos não técnicos, e vice-versa, garantindo o alinhamento de expectativas e resultados.
* Trabalho em Equipe e Colaboração: Atuar de forma integrada com engenheiros de dados, analistas e outras equipes, contribuindo para um ambiente produtivo e sinérgico.
* Orientação para Resultados: Foco em entregar soluções de dados que gerem valor real para o negócio e impulsionam a tomada de decisões.
Vantagens do Cargo:
* Possibilidade de trabalho remoto ou flexível.
* Acesso a oportunidades de crescimento e desenvolvimento profissional.
* Desafios contínuos e projetos interessantes.