Soft Skills
1. Raciocínio analítico e foco em solução de problemas.
2. Proatividade, curiosidade e aprendizado contínuo.
3. Boa comunicação com áreas técnicas e de negócio.
4. Capacidade de trabalhar em equipe com engenheiros de dados e analistas.
* Graduação completa, preferencialmente em Ciência da Computação, Engenharia da computação e Sistemas de Informação.
Diferenciais:
* Experiência com CI/CD para modelos (ex: MLflow, DVC).
* Experiência com containers (Docker) para empacotamento de soluções de dados.
* Conhecimento em NLP, Visão Computacional ou séries temporais.
* Certificações em IA ou Data Science.
Cientista de Dados (com foco em IA e Python)
Conhecimentos Essenciais:
* Experiência com projetos de Inteligência Artificial e Machine Learning.
* Domínio de Python e bibliotecas como:
* Pandas, Numpy, Scikit-learn, TensorFlow, PyTorch, Keras, Matplotlib, Seaborn.
* Conhecimento em SQL e habilidade para escrever consultas complexas.
* Familiaridade com boas práticas de versionamento de código (Git).
* Conhecimento em tratamento, análise e preparação de dados (data wrangling, feature engineering).
* Experiência com testes automatizados com foco em dados e scripts (ex: pytest).
Ingestão e Manipulação de Dados
* Entendimento de processos de ETL / ELT e tratamento de dados.
* Experiência com ferramentas de ingestão e transformação de dados, como:
* Airbyte, dbt, Kafka Connect, Apache Nifi (desejável).
* Familiaridade com orquestradores de pipeline de dados como Apache Airflow, Dagster ou Prefect.
Bancos de Dados
* Experiência prática com bancos de dados relacionais:
* PostgreSQL, MySQL, SQL Server, Oracle.
* Conhecimento básico em bancos NoSQL:
* MongoDB, Redis.
* Capacidade de otimizar consultas para grandes volumes de dados.
Data Warehousing e Modelagem Dimensional
* Conhecimento em modelagem de dados e práticas de Data Warehousing:
* Star Schema, Snowflake Schema, Slowly Changing Dimensions, entre outros.
Big Data (Diferenciais)
* Familiaridade com ferramentas de Big Data, como:
* Apache Spark, Apache Kafka, Hadoop, Flink.
* Experiência em processamento de dados em larga escala será um diferencial.
APIs e Integrações
* Experiência no consumo de APIs REST (para coletar dados externos).
* Conhecimento de princípios REST e protocolo HTTP.
* Noções básicas sobre autenticação com OAuth/JWT.
Visualização e BI (Desejável)
* Experiência com ferramentas de visualização de dados, como:
* Power BI, Tableau, Dash, Streamlit.