Descrição da Empresa: A Kie-Tec é uma empresa de tecnologia com sede em Curitiba (PR) e Florianópolis (SC), especializada em soluções digitais para análise de dados, automação inteligente de processos e inteligência artificial aplicada aos negócios.
Com atuação nacional e projetos reconhecidos por sua inovação e impacto, a Kie-Tec entrega valor real por meio da combinação entre expertise técnica, visão estratégica e foco em resultados.
Nascida no ecossistema de inovação e residente do hub Hotmilk, a empresa já acumula milhares de horas de consultoria em dados para grandes organizações como Itaipu Binacional, além de ter sido premiada como Empresa Inovadora na categoria Serviços durante a Connect Week.
Trabalhar na Kie-Tec é fazer parte de um time colaborativo, apaixonado por tecnologia e comprometido com a transformação digital dos nossos clientes.
Se você busca desafios reais, aprendizado contínuo e impacto positivo por meio da tecnologia, seu lugar pode ser aqui com a gente.
Descrição do Cargo: Estamos em busca de um Engenheiro de Dados com sólida experiência em construção e orquestração de pipelines de dados em ambientes de nuvem, com foco específico em Snowflake ou Google Cloud Platform (GCP).
O profissional atuará no desenvolvimento e sustentação de soluções de dados modernas, escaláveis e orientadas à confiabilidade, apoiando iniciativas estratégicas de dados e analytics.
Responsabilidades: · Desenvolver e manter pipelines de ingestão, transformação e disponibilização de dados (ETL/ELT), utilizando Airflow e soluções nativas de orquestração na nuvem.
· Trabalhar com Snowflake ou BigQuery para modelagem de dados, particionamento, performance tuning e controle de custos.
· Criar soluções em camadas de dados: landing, trusted, staging e target, com foco em qualificação, transformação e enriquecimento dos dados.
· Automatizar e monitorar processos com práticas de DevOps para dados (CI/CD, versionamento, observabilidade).
· Colaborar com times de BI, ciência de dados e engenharia para garantir a disponibilidade e integridade dos dados.
Requisitos Técnicos: SQL avançado: Habilidade para escrever e otimizar queries em ambientes de alto volume de dados. ETL/ELT e orquestração de pipelines: Experiência com Apache Airflow (ou Composer no GCP) e ferramentas similares. Experiência comprovada em Snowflake ou GCP: Para Snowflake: conhecimento em warehouse sizing, zero-copy cloning, streams & tasks, Snowpipe, integração com ferramentas externas.
Para GCP: domínio de serviços como BigQuery, Cloud Storage, Cloud Dataflow, Cloud Composer, e integração com ferramentas analíticas.Linguagens e Big Data: Sólidos conhecimentos em Python e uso de Spark (local ou via Dataproc no GCP).DevOps e automação: Conhecimento em Docker, CI/CD (preferencialmente GitLab CI, Cloud Build ou similares), monitoramento e logging.Modelagem e arquitetura de dados: Conhecimento prático das camadas de dados (landing, trusted, staging, target) e suas finalidades em pipelines modernos. Diferenciais: · Experiência com Terraform ou outra ferramenta de IaC voltada para GCP ou Snowflake.
· Conhecimento em Data Governance, catálogos de dados (ex: Data Catalog do GCP, Alation, Collibra).
· Experiência com dbt (data build tool) para transformação de dados no warehouse.
· Certificações Snowflake ou GCP (ex: Professional Data Engineer, SnowPro Core).
Perfil Comportamental: · Forte capacidade analítica e raciocínio lógico.
· Proatividade, organização e boa comunicação para atuar em times multidisciplinares.
· Interesse em ambientes de dados modernos e em constante evolução tecnológica.
Local de Trabalho: Remoto ou híbrido, com disponibilidade para atuar em projetos de grande escala em ambientes cloud.