A Innvo está em busca de um Engenheiro de Dados apaixonado por tecnologia e inovação. Se você tem experiência comprovada em projetos que integram boas práticas e arquiteturas complexas e deseja fazer parte de uma equipe dinâmica e inovadora, venha nos ajudar a criar soluções de ponta para nossos clientes.
CLT Full, São Paulo - SP.
Linkedin atualizado, dedicação exclusiva
Responsabilidades:
Desenvolver e otimizar pipelines de dados para garantir o fluxo contínuo e a qualidade das informações no ambiente de produção.
Integrar dados de diversas fontes, incluindo APIs externas, sistemas internos, bancos de dados relacionais e não relacionais.
Colaborar com times de produto, ciência de dados e análise de negócios para fornecer soluções escaláveis e eficientes.
Manter e aprimorar as infraestruturas de dados, garantindo a confiabilidade, segurança e performance.
Trabalhar com tecnologias de big data, como Hadoop, Spark, Kafka, entre outras, para lidar com grandes volumes de dados transacionais e analíticos.
Garantir que os dados estejam formatados e limpos, utilizando práticas como ETL/ELT, processamento de dados em batch e stream.
Monitorar e resolver problemas relacionados à ingestão de dados, performance de consultas e disponibilidade dos sistemas de dados.
Implementar boas práticas de versionamento, documentação e controle de mudanças no fluxo de dados.
Garantir que os dados estejam conformes com as regulamentações de segurança e compliance, especialmente no setor financeiro.
Requisitos:
Experiência prévia de 4 a 5 anos como Engenheiro de Dados, preferencialmente em empresas do mercado financeiro ou fintechs.
Bacharelado em Ciência da Computação, Engenharia, Estatística, Matemática ou áreas correlatas.
Conhecimento avançado em SQL e em bancos de dados relacionais e não relacionais (ex: PostgreSQL, MySQL, MongoDB, Cassandra, etc.).
Experiência com ETL/ELT, incluindo ferramentas como Apache NiFi, Talend, Airflow ou dbt.
Conhecimento de ferramentas de Big Data (ex: Hadoop, Spark, Kafka).
Experiência com processamento de dados em batch e stream, com boas práticas de performance.
Familiaridade com Python e/ou Java para manipulação de dados e desenvolvimento de scripts.
Experiência com cloud computing (ex: AWS, Google Cloud, Azure) e serviços de armazenamento de dados como S3, BigQuery, Redshift ou Snowflake.
Conhecimento de Docker e Kubernetes é um diferencial para deploy e orquestração de pipelines.
Compreensão de conceitos de segurança de dados, incluindo criptografia, autenticação e compliance regulatório, como LGPD, GDPR, etc.
Habilidade em criar e otimizar consultas e procedimentos armazenados.
Inglês técnico para leitura de documentação e comunicação com times internacionais (caso necessário).
Desejáveis:
Experiência com análise de dados financeiros, como dados de transações bancárias, investimentos, indicadores financeiros, etc.
Experiência com data lakes e data warehouses.
Familiaridade com ferramentas de visualização de dados, como Power BI, Tableau, Looker ou Grafana.
Habilidade em análise de dados e conhecimento básico de técnicas de Machine Learning.
Conhecimento de frameworks de orquestração de fluxo de dados como Apache Airflow ou Prefect.
Benefícios:
Salário competitivo.
Plano de saúde e odontológico.
Vale-refeição e/ou vale-alimentação.
Aplicativo Starbem.
Gympass / TotalPass
Oportunidades de crescimento profissional e desenvolvimento de habilidades.
Ambiente de trabalho flexível e inclusivo.