Desenvolver pipelines de dados em lote utilizando PySpark com foco em SQL é fundamental.
Transforme e integre dados de diversas fontes em tabelas Iceberg e Snowflake.
Comece a trabalhar com data marts e conjuntos de dados selecionados para consumo comercial.
Colabore com analistas de negócios para entender as necessidades de dados.
É essencial compreender os requisitos autônomos e traduzir para código.
A habilidade de criar e gerenciar data marts, exposição ao Airflow ou outras ferramentas de orquestração, familiaridade com ferramentas de infraestrutura como código e compreensão dos padrões ODS e arquitetura de data lake são fundamentais.
Antes de candidatar-se considere se você tem experiência em consultas SQL complexas para apoiar a lógica de negócios e relatórios.
Desenvolva consultas SQL complexas para apoiar a lógica de negócios e relatórios.