Vis e3o geral
A Teddy est e1 em busca de um Engenheiro de Dados apaixonado por transformar informa e7 f5es em insights impactantes. Se voc ea tem experiencia com pipelines de dados, garante a qualidade e a consist eancia, e adora trabalhar com tecnologias como Apache Airflow, Git e AWS, queremos voca no nosso time! Junte-se a n f3s para desenvolver solu e7 f5es inovadoras em um ambiente colaborativo, usando suas habilidades em SQL, NoSQL, ETL e Python. Se est e1 pronto para esse desafio e deseja impulsionar nossa estratégia de dados, estamos ansiosos para conhec ea-lo!
Responsabilidades
Ingest e3o de Dados no Data Lake: Desenvolver e gerenciar pipelines de dados que permitem a ingest e3o de grandes volumes de dados em tempo real ou em batch no Data Lake, garantindo a qualidade e a consist eancia dos dados armazenados.
Conhecimento em Bancos de Dados: Forte entendimen to de bancos de dados relacionais (SQL) e n e3o relacionais (NoSQL), incluindo modelagem de dados, consultas complexas e otimiza e7 e3o de performance.
ETL (Extract, Transform, Load): Design e implementa e7 e3o de processos ETL para transformar dados brutos em informa e7 f5es utiliz e1veis, garantindo que os dados estejam limpos, formatados e prontos para an e1lise.
Ferramentas e Tecnologias: Apache Airflow, Git, AWS (servic f5es como S3, Redshift, Lambda) e outras ferramentas relevantes para dados.
Programa e7 e3o em Python: Desenvolvimento de scripts de automa e7 e3o e pipelines de dados, com uso de bibliotecas de dados como Pandas, PySpark, entre outras.
Habilidades
S f3lidos conhecimentos em SQL e NoSQL.
Experi eancia pr e1tica com ETL e Data Lakes.
Profici eancia em Python e bibliotecas relacionadas a dados.
Familiaridade com ferramentas de orquestrac e3o de fluxos de trabalho, especialmente Airflow.
Capacidade de trabalhar com sistemas de controle de vers e3o, como Git.
Experi eancia com servi e7os de nuvem, particularmente AWS.
Local: S e3o Paulo, S e3o Paulo, Brazil
#J-18808-Ljbffr