Responsabilidades Principais:
1. Estruturar fluxo, análise e interpretação de dados
2. Estruturar padrões de arquitetura para processamento de dados (ETL ou ELT)
3. Desenvolver scripts para automação de processos em engenharia e análise de dados
4. Desenvolver rotinas de data quality: cleansing, aggregation, transformation, augmentation, sorting, formating...
5. Gerenciar metadados (raw/curated) e gerar documentação para times de negócios
6. Versionar scripts de pipelines de dados
7. Fazer deploy de containers e máquinas virtuais
8. Orquestrar fluxos de dados em cloud
9. Criar relacionamento, filtro e agregações de dados no datalake em SQL para consumo em ferramentas de BI
10. Otimização e agendamento de queries
11. Implementar continuous integration/delivery em rotinas de dados (CI/CD)
Requisitos:
1. Formação em Ciência da Computação, Engenharias, Estatística, Matemática ou áreas afins
2. Experiência com GIT, Banco de Dados Relacional, Ferramentas de BI
3. Linguagens de programação: Javascript / Python / SQL
4. Conhecimentos em probabilidade e estatística
5. Familiaridade com conceitos de Machine Learning
6. Conhecimentos ou experiência com: Spark, Airflow (ou outra ferramenta de orquestração), Google Cloud Platform (GCP), Amazon (AWS), Apache Beam (Dataflow), Containers (Docker), Data Warehouse/Lake (BigQuery), Desenvolvimento de API’s
7. Criatividade, capacidade analítica, pensamento crítico
8. Proficiência em inglês (leitura e conversação)
Informações Adicionais:
1. Local: Fortaleza
2. Horário: Administrativo
3. Salário e benefícios: Compatível com a função
#J-18808-Ljbffr