A Foursys procura por uma pessoa com paixão por transformar dados em conhecimento e experiência sólida na construção de pipelines robustos.
Responsabilidades:
Projetar, desenvolver e manter pipelines de ETL complexos.
Trabalhar na criação e otimização de consultas e SQLs complexos.
Desenvolver soluções de processamento de dados em escala utilizando Apache Spark, Scala e PySpark.
Utilizar Python para automação de tarefas e criação de ferramentas.
Orquestrar fluxos de trabalho utilizando Airflow.
Trabalhar em um ambiente de nuvem utilizando GCP.
Colaborar com times de negócio para entender as necessidades e traduzi-las em soluções de dados.
Requisitos Essenciais
Experiência comprovada na construção de processos ETL.
Domínio de SQL e experiência na criação de consultas complexas.
Experiência com Apache Spark e Scala ou PySpark.
Forte conhecimento em Python.
Experiência com Airflow.
Conhecimento em plataformas de BI como Tableau, Spotfire ou Looker.
Experiência prática em metodologias ágeis, especialmente Scrum.
Proatividade e autonomia para resolver problemas.
Disposição para compartilhar e receber feedback construtivo, apresentando e aceitando ideias divergentes.
Requisitos Desejáveis
Experiência com FastAPI ou Django.
Conhecimento em ORM Python, como SQLAlchemy ou Django.
Experiência com Docker e Kubernetes.
Prazo de Contratação: A ser definido.
Vagas Similares:
Clique aqui para ver vagas similares.
Mais informações sobre a empresa:
Aviso Legal.
Política de Privacidade.
Termos de Uso.
Política de Cookies.
Contato.