Objetivo da Vaga: A City está em busca de um Analista de Sistemas com foco em Engenharia de Dados para projetar, construir e manter pipelines e arquiteturas de dados escaláveis que garantam a coleta, integração, governança e disponibilização de informações para consumo analítico e operacional. Atuará no tratamento e na modelagem de dados em grande escala, assegurando a confiabilidade, a performance e a segurança das soluções de dados da empresa. Principais Responsabilidades : Desenvolver, implementar e manter pipelines de dados (ETL/ELT) para ingestão, transformação e disponibilização de dados estruturados e não estruturados; Garantir a qualidade, consistência e integridade dos dados armazenados em data lakes, data warehouses e bancos de dados relacionais/não relacionais; Projetar e otimizar arquiteturas de dados escaláveis em ambientes on-premises e em nuvem (Snowflake, Azure, AWS ou GCP); Colaborar com analistas de BI e áreas de negócio para fornecer datasets confiáveis que apoiem a criação de relatórios, dashboards e análises avançadas; Implementar boas práticas de segurança, governança e compliance de dados; Monitorar e otimizar a performance dos pipelines e bancos de dados, identificando gargalos e propondo melhorias; Automatizar processos de ingestão e integração de dados usando ferramentas e linguagens adequadas (Python, Spark, SQL, etc.); Apoiar a implementação de soluções de machine learning e analytics, garantindo que os dados estejam preparados e acessíveis para os times de ciência de dados e BI; Manter-se atualizado sobre tecnologias, ferramentas e tendências em engenharia de dados, big data e cloud computing, aplicando inovações às soluções existentes. Requisitos: Superior Completo em Ciência da Computação, Sistemas de Informação, Engenharia de Software, Engenharia de Computação ou áreas correlatas; Conhecimento em SQL e modelagem de dados (relacional e dimensional), bancos de dados relacionais (SQL Server, PostgreSQL, MySQL) e não relacionais (MongoDB, Cassandra, etc), versionamento de código (Git) e metodologias ágeis; Experiência com ferramentas de ETL/ELT (Apache Airflow, SSIS, dbt ou similares), ambientes de big data e processamento distribuído (Hadoop, Spark) e Python; Vivência com serviços de nuvem para dados (AWS Redshift/Glue, Azure Data Factory/Synapse, GCP BigQuery/Dataflow); Familiaridade com práticas de DevOps/DataOps será considerado um diferencial; Disponibilidade para atuar de forma 100% presencial.