Quem somos?
Com 8 anos de história, a TerraMagna vive a missão de tornar a agricultura tudo aquilo que o mundo precisa que ela seja. Hoje atua como financiadora da cadeia de insumos do agronegócio, visando ser seu sistema operacional e principal parceiro financeiro. Possui mais de 1 bilhão de reais sob gestão, captou 75 milhões em rodada de investimentos e atua com clientes em todo o Brasil.
Como é trabalhar na TM?
Acreditamos em um ambiente de trabalho livre e flexível, por isso, a confiança é a base de tudo que fazemos. Aqui, precisamos de pessoas comprometidas e prontas para novos desafios, capazes de desbravar o agronegócio e nos ajudar na nossa principal missão: levar para o agronegócio o insumo mais importante: o crédito.
Dia a dia
* Contribuir ativamente para a criação e evolução de produtos e serviços no universo de Crédito e Risco.
* Colaborar com as equipes de negócios para entender requisitos de dados e entregar soluções técnicas avançadas.
* Desenvolver pipelines robustos de ingestão de dados massivos (batch, near real-time e real-time), garantindo confiabilidade e eficiência.
* Assegurar que a arquitetura de dados esteja alinhada com os objetivos do negócio.
* Trabalhar com equipes multifuncionais para integrar dados em nossos produtos e serviços.
* Identificar oportunidades para aquisição de novos dados e propor melhorias contínuas em disponibilidade, confiabilidade e eficiência.
* Facilitar a democratização dos dados em toda a empresa.
* Compreender profundamente os produtos e serviços da TerraMagna para melhor atender às necessidades internas.
* Manter-se atualizado com tendências e melhores práticas em Engenharia e Ciência de Dados.
Requisitos
* 5+ anos de experiência em engenharia de dados e/ou desenvolvimento de software, com ênfase em grandes volumes de dados e alta disponibilidade.
* Forte domínio de Python (nível produção) e SQL avançado (modelagem, performance, manipulação de grandes volumes).
* Experiência prática na construção e manutenção de pipelines de dados batch e near real-time.
* Experiência com mensageria e processamento de eventos (Pub/Sub, Kafka ou similares).
* Experiência com orquestração de workflows (Airflow ou similar).
* Experiência com ferramentas de transformação de dados (dbt ou similar).
* Experiência em ambientes de nuvem, preferencialmente Google Cloud Platform (GCP).
* Versionamento de código com Git/GitHub.
* Conhecimento em Infraestrutura como Código (Terraform ou similar).
* Conhecimento de boas práticas de modelagem de dados (dimensional, relacional, data vault), particionamento e otimização de queries.
* Boas habilidades de comunicação e colaboração com times técnicos e de negócio.
* Perfil proativo, orientado a resultados e com forte capacidade de resolução de problemas.
* Interesse genuíno em evoluir tecnicamente em um ambiente dinâmico de fintech.
Diferenciais
* Experiência com BigQuery, Kubernetes (GKE), Cloud Storage, Pub/Sub e Docker.
* Familiaridade com dbt, Dataform ou ferramentas similares de transformação de dados.
* Experiência com arquiteturas de dados em múltiplas camadas (raw, trusted, refined, datamart).
* Experiência com integração de APIs externas ou ingestão de dados não estruturados.
* Conhecimento em conceitos e ferramentas de Lakehouse (Delta Lake, Databricks, Cloudera).
* Experiência com Spark, Flink ou frameworks de processamento distribuído.
* Experiência no setor de serviços financeiros ou em projetos relacionados a crédito e risco.
* Conhecimento em ferramentas de BI e Data Apps (Streamlit, Tableau, Qlik).
O que temos por aqui:
* Trabalho remoto (encontros ocasionais na sede em São José dos Campos/SP)
* Remuneração compatível (PJ)
* Benefício flexível via cartão Swile
* Wellhub (antigo Gympass)
* Convênio médico Porto Saúde
* Convênio odontológico Uniodonto