Join to apply for the Engenheiro de Dados - (Chapecó-SC) role at IXC Soft
Venha fazer parte de uma multinacional inovadora!
Somos uma empresa de desenvolvimento de sistemas focada em criar ferramentas de inteligência estratégica para empresas de diversos segmentos. Aqui dentro, a inovação acontece todos os dias!
Se você quer trabalhar em um ambiente dinâmico, que valoriza o bem-estar dos colaboradores e oferece oportunidades reais de crescimento, essa é a sua chance!
Estamos em busca de Engenheiro de Dados para se juntar ao nosso time em Chapecó-SC.
Responsabilidades e atribuições
1. Projetar e implementar pipelines de dados robustos e escaláveis, otimizando seu desempenho;
2. Trabalhar em colaboração com cientistas de dados e analistas para compreender necessidades e ajudar na implementação de modelos analíticos;
3. Monitorar e assegurar a integridade e qualidade dos dados, realizando correções e melhorias quando necessário;
4. Documentar processos e manter a arquitetura de dados atualizada;
5. Conduzir testes e validações de dados para assegurar integridade e precisão;
6. Realizar treinamentos para engenheiros trainee ou mais juniores;
7. Agregar com insights para melhoria de ferramentas ou processos que envolvam a distribuição de dados para áreas;
8. Participar ativamente de reuniões com stakeholders, relacionadas a dados/indicadores/métricas/ferramentas;
9. Integrar e consolidar dados de diferentes fontes, garantindo que os dados sejam acessíveis, consistentes e de alta qualidade;
10. Implementar práticas de segurança e conformidade de dados, garantindo que os dados sejam acessíveis de maneira segura;
11. Executar outras atividades correlatas ao cargo.
Requisitos e qualificações
Instrução/Escolaridade:
* Graduação completa em Ciência da Computação, Engenharia de Computação ou áreas relacionadas; pós-graduação é um diferencial.
Experiência:
* De 2 a 5 anos de experiência em engenharia de dados ou funções relacionadas.
Conhecimentos/Habilidades Técnicas:
* Proficiência em SQL e experiência em bancos de dados relacionais e não relacionais;
* Conhecimento de ferramentas de ETL (como Talend, Apache Nifi, Google DataFlow) e processamento em tempo real;
* Conhecimento em Apache Airflow para gerenciamento de workflows e agendamento de tarefas;
* Familiaridade com frameworks de Big Data, como Hadoop, Spark ou Kafka;
* Habilidade em programação com Python (Pandas, PySpark) e/ou Node.js, com experiência em desenvolvimento de pipelines de dados;
* Experiência com arquiteturas e serviços de dados em cloud (AWS, GCP, Azure), incluindo Data Lakes, Data Warehouses (BigQuery, Snowflake, Redshift);
* Experiência com versionamento de código (Git) e práticas de CI/CD para deploy de pipelines de dados;
* Conhecimento em ferramentas de visualização de dados, como Looker, Tableau ou Power BI, é um diferencial.
Habilidades Comportamentais:
* Comunicação clara e didática;
* Proatividade e trabalho em equipe;
* Capacidade de trabalhar sob pressão e gerenciar prioridades.
Informações adicionais
* Café da manhã (opcional);
* Almoço gratuito para o colaborador;
* Lanche saudável diariamente;
* Vale transporte conforme previsto na CLT;
* Plano odontológico Uniodonto;
* Plano de saúde Unimed;
* Auxílio educação;
* Plano de Carreira e Desenvolvimento;
* Participação nos Lucros e Resultados;
* Ginástica laboral;
* Espaço de descanso;
* Day off no mês de aniversário;
* Convênios com universidades, escolas de idiomas, Ótica Berlim, Deatec, CPO Clínica Psicológica do Oeste.
#J-18808-Ljbffr