Descrição da Vaga
A empresa está procurando por um profissional experiente em dados para trabalhar em um projeto estratégico que envolve a transformação e integração de grandes volumes de dados.
Responsabilidades:
* Desenvolver e otimizar pipelines de dados em GCP, garantindo escalabilidade e eficiência.
* Implementar estratégias para redução de custos e aumento de desempenho dos pipelines de dados.
* Criar serviços e APIs para integração de dados, garantindo interoperabilidade e flexibilidade.
* Trabalhar com arquiteturas escaláveis e eficientes, garantindo a manutenção e evolução dos sistemas.
Requisitos:
* Experiência sólida com GCP e seus principais serviços, incluindo BigQuery, Cloud Storage e Cloud Functions.
* Forte domínio em Python para processamento de dados, incluindo bibliotecas como Pandas e NumPy.
* Vivência com arquiteturas econômicas e escaláveis, garantindo a manutenção e evolução dos sistemas.
* Familiaridade com ferramentas de desenvolvimento como Cursor, garantindo a gestão eficaz do ciclo de vida do software.
* Perfil proativo e orientado à solução, capaz de identificar oportunidades de melhoria e implementá-las de forma eficaz.
Benefícios:
* Oportunidade de trabalhar em um projeto estratégico com grande impacto na empresa.
* Desenvolvimento profissional contínuo, com acesso a treinamentos e recursos para melhorar habilidades e conhecimentos.
* Trabalho em equipe, com colegas experientes e motivados.
* Remuneração competitiva e benefícios adicionais.
Apoio ao trabalho remoto: Não há apoio.