É muito importante que você tenha e/ou saiba:
* Formação superior em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
* Experiência comprovada como Engenheiro de Dados.
* Domínio de linguagens como Python, SQL e Apache Spark.
* Experiência com ferramentas de ETL (ex: Databricks, Apache Airflow, Dataflow).
* Experiência em comunicação api RESTful.
* Conhecimento em tecnologia de mensageria (ex: Kafka)
* Experiência com bancos de dados relacionais (ex: PostgreSQL, MySQL) e não relacionais (ex: MongoDB, DinamoDB).
* Familiaridade com serviços de nuvem (AWS, Azure ou GCP).
* Conhecimento em modelagem de dados e arquitetura de dados.
* Habilidade de trabalhar em equipe e comunicar-se com clareza.
* Experiência com metodologia Agile
Os desafios da função são:
* Projetar e implementar pipelines de dados robustos e escaláveis.
* Integrar dados de múltiplas fontes, estruturadas e não estruturadas.
* Otimizar processos de ETL/ELT para garantir performance e confiabilidade.
* Trabalhar em conjunto com times de ciência de dados, engenharia de software e negócios para entender requisitos e entregar soluções de dados.
* Garantir a qualidade dos dados por meio de validações, testes e monitoramento contínuo.
* Gerenciar e manter data lakes, data warehouses e bancos de dados relacionais e não relacionais.
* Aplicar boas práticas de segurança e governança de dados.
* Participar da definição de arquitetura de dados e escolha de tecnologias.