Profissional com sólida experiência em projetos de dados e inteligência artificial.
Seus conhecimentos técnicos incluem:
* Criação e manutenção de pipelines de processamento de grandes volumes de dados, utilizando AWS Glue e Apache Airflow.
* Desenvolvimento de scripts e automações para tratamento e transformação de dados, utilizando Python e PySpark.
* Administração e execução de clusters Hadoop/Spark, configurando ambientes e pipelines de alto desempenho.
* Modelagem de dados e boas práticas para ambientes analíticos.
* ETL/ELT e integração de dados provenientes de múltiplas fontes.
Além disso, você tem habilidades complementares:
* Levantamento de requisitos e implementação de fluxos de extração, transformação e carga.
* Documentação técnica clara e manutenção de repositórios de conhecimento.
Vantagens do cargo:
* Trabalhar com tecnologias inovadoras e atuais no mercado.
* Oportunidade de aprender e se desenvolver profissionalmente.
* Trabalhar em equipe e colaborar com outros profissionais.
Sobre nós:
Nós somos uma empresa comprometida com a inovação e o sucesso dos nossos clientes. Estamos sempre procurando por pessoas talentosas e motivadas para fazer parte da nossa equipe.