Descrição
Apoiar ativamente na definição de requisitos para a área de infraestrutura de TI/Dados, contribuindo com análises técnicas sobre soluções e alternativas propostas, avaliando impactos em performance, custo, escalabilidade e aderência à arquitetura existente;
Atuar com visão crítica moderada, sugerindo melhorias e identificando riscos técnicos, alinhado às diretrizes estabelecidas pelo time sênior e arquitetura corporativa;
Participar do desenho e implementação de arquiteturas de dados de média complexidade, seguindo padrões e diretrizes definidos pela arquitetura corporativa;
Atuar de forma colaborativa com equipes técnicas e não técnicas, traduzindo conceitos complexos em linguagem acessível para facilitar alinhamentos e decisões;
Contribuir ativamente para o sucesso dos projetos ao antecipar necessidades, apoiar outras áreas e participar da resolução de divergências técnicas com maturidade e foco em resultados;
Colaborar ativamente na definição e extração de dados provenientes de diferentes fontes para ingestão nas plataformas de Big Data, garantindo aderência aos padrões estabelecidos;
Apoiar a modelagem e organização das estruturas de dados para que estejam apropriadas, acessíveis e disponíveis para consumo, assegurando o alinhamento entre os dados operacionais e os modelos analíticos requeridos;
Contribuir ativamente nos projetos relacionados à integração de dados e sistemas, implementando soluções de média complexidade e garantindo aderência aos padrões arquiteturais definidos;
Apoiar o desenho técnico das soluções, participar da evolução da arquitetura existente e atua na manutenção e melhoria contínua dos sistemas sob sua responsabilidade.
Requisitos
Graduação completa em Ciência da Computação, Sistemas de Informação, Análise e Desenvolvimento de Sistemas e áreas afins;
Experiência prática no desenvolvimento e manutenção de pipelines de dados;
Conhecimento sólido em Python para ETL, manipulação de dados e APIs (Pandas, NumPy, PySpark);
Experiência prática com Spark e/ou Kafka;
Conhecimento em processamento batch e streaming;
Conhecimento em Data Lake, Lakehouse e Data Warehouse;
Domínio de SQL e experiência com bancos relacionais;
Noções de NoSQL;
Noções de DataOps, versionamento e monitoramento de pipelines;
Aplicação prática de metodologias ágeis (Scrum, Kanban).
Desejáveis
Pós-graduação e certificações na área de TI;
Experiência em ambiente regulado (ex: setor financeiro);
Experiência com ferramentas de orquestração (ex: Airflow);
Conhecimento em integração com modelos de ML ou consumo de APIs de IA;
Vivência com ambientes de médio porte e processamento de volumes relevantes de dados.