A Innvo está em busca de um Engenheiro de Dados apaixonado por tecnologia e inovação. Se você tem experiência comprovada em projetos que integram boas práticas e arquiteturas complexas e deseja fazer parte de uma equipe dinâmica e inovadora, venha nos ajudar a criar soluções de ponta para nossos clientes.
CLT Full, São Paulo - SP.
Linkedin atualizado, dedicação exclusiva
Responsabilidades:
* Desenvolver e otimizar pipelines de dados para garantir o fluxo contínuo e a qualidade das informações no ambiente de produção.
* Integrar dados de diversas fontes, incluindo APIs externas, sistemas internos, bancos de dados relacionais e não relacionais.
* Colaborar com times de produto, ciência de dados e análise de negócios para fornecer soluções escaláveis e eficientes.
* Manter e aprimorar as infraestruturas de dados, garantindo a confiabilidade, segurança e performance.
* Trabalhar com tecnologias de big data, como Hadoop, Spark, Kafka, entre outras, para lidar com grandes volumes de dados transacionais e analíticos.
* Garantir que os dados estejam formatados e limpos, utilizando práticas como ETL/ELT, processamento de dados em batch e stream.
* Monitorar e resolver problemas relacionados à ingestão de dados, performance de consultas e disponibilidade dos sistemas de dados.
* Implementar boas práticas de versionamento, documentação e controle de mudanças no fluxo de dados.
* Garantir que os dados estejam conformes com as regulamentações de segurança e compliance, especialmente no setor financeiro.
Requisitos:
* Experiência prévia de 4 a 5 anos como Engenheiro de Dados, preferencialmente em empresas do mercado financeiro ou fintechs.
* Bacharelado em Ciência da Computação, Engenharia, Estatística, Matemática ou áreas correlatas.
* Conhecimento avançado em SQL e em bancos de dados relacionais e não relacionais (ex: PostgreSQL, MySQL, MongoDB, Cassandra, etc.).
* Experiência com ETL/ELT, incluindo ferramentas como Apache NiFi, Talend, Airflow ou dbt.
* Conhecimento de ferramentas de Big Data (ex: Hadoop, Spark, Kafka).
* Experiência com processamento de dados em batch e stream, com boas práticas de performance.
* Familiaridade com Python e/ou Java para manipulação de dados e desenvolvimento de scripts.
* Experiência com cloud computing (ex: AWS, Google Cloud, Azure) e serviços de armazenamento de dados como S3, BigQuery, Redshift ou Snowflake.
* Conhecimento de Docker e Kubernetes é um diferencial para deploy e orquestração de pipelines.
* Compreensão de conceitos de segurança de dados, incluindo criptografia, autenticação e compliance regulatório, como LGPD, GDPR, etc.
* Habilidade em criar e otimizar consultas e procedimentos armazenados.
Inglês técnico para leitura de documentação e comunicação com times internacionais (caso necessário).
Desejáveis:
* Experiência com análise de dados financeiros, como dados de transações bancárias, investimentos, indicadores financeiros, etc.
* Experiência com data lakes e data warehouses.
* Familiaridade com ferramentas de visualização de dados, como Power BI, Tableau, Looker ou Grafana.
* Habilidade em análise de dados e conhecimento básico de técnicas de Machine Learning.
* Conhecimento de frameworks de orquestração de fluxo de dados como Apache Airflow ou Prefect.
Benefícios:
* Salário competitivo.
* Plano de saúde e odontológico.
* Vale-refeição e/ou vale-alimentação.
* Aplicativo Starbem.
* Gympass / TotalPass
* Oportunidades de crescimento profissional e desenvolvimento de habilidades.
* Ambiente de trabalho flexível e inclusivo.