From 06910fdafb47f4ea4a94b1082abfbe4e8044057c Mon Sep 17 00:00:00 2001 From: zRzRzRzRzRzRzR <2448370773@qq.com> Date: Sat, 25 Oct 2025 21:28:01 +0800 Subject: [PATCH] update for new format config of transformers lib / sglang lib --- README.md | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/README.md b/README.md index b70c5b3..cd7cef7 100644 --- a/README.md +++ b/README.md @@ -5,12 +5,12 @@ license: mit # GLM-4.1V-9B-Thinking
- +

📖 查看 GLM-4.1V-9B-Thinking 论文
- 💡 立即在线体验 Hugging FaceModelScope 上的 GLM-4.1V-9B-Thinking。 + 💡 立即在线体验 Hugging FaceModelScope 上的 GLM-4.1V-9B-Thinking。
📍 在 智谱大模型开放平台 使用 GLM-4.1V-9B-Thinking 的API服务。

@@ -20,12 +20,12 @@ license: mit 视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外, 逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。 -基于 [GLM-4-9B-0414](https://github.com/THUDM/GLM-4) 基座模型,我们推出新版VLM开源模型 **GLM-4.1V-9B-Thinking** +基于 [GLM-4-9B-0414](https://github.com/zai-org/GLM-4) 基座模型,我们推出新版VLM开源模型 **GLM-4.1V-9B-Thinking** ,引入思考范式,通过课程采样强化学习 RLCS(Reinforcement Learning with Curriculum Sampling)全面提升模型能力, 达到 10B 参数级别的视觉语言模型的最强性能,在18个榜单任务中持平甚至超过8倍参数量的 Qwen-2.5-VL-72B。 我们同步开源基座模型 **GLM-4.1V-9B-Base**,希望能够帮助更多研究者探索视觉语言模型的能力边界。 -![rl](https://raw.githubusercontent.com/THUDM/GLM-4.1V-Thinking/refs/heads/main/resources/rl.jpeg) +![rl](https://raw.githubusercontent.com/zai-org/GLM-4.1V-Thinking/refs/heads/main/resources/rl.jpeg) 与上一代的 CogVLM2 及 GLM-4V 系列模型相比,**GLM-4.1V-Thinking** 有如下改进: @@ -39,13 +39,13 @@ license: mit GLM-4.1V-9B-Thinking 通过引入「思维链」(Chain-of-Thought)推理机制,在回答准确性、内容丰富度与可解释性方面, 全面超越传统的非推理式视觉模型。在28项评测任务中有23项达到10B级别模型最佳,甚至有18项任务超过8倍参数量的Qwen-2.5-VL-72B。 -![bench](https://raw.githubusercontent.com/THUDM/GLM-4.1V-Thinking/refs/heads/main/resources/bench.jpeg) +![bench](https://raw.githubusercontent.com/zai-org/GLM-4.1V-Thinking/refs/heads/main/resources/bench.jpeg) ## 快速推理 这里展现了一个使用`transformers`进行单张图片推理的代码。首先,从源代码安装`transformers`库。 ``` -pip install git+https://github.com/huggingface/transformers.git +pip install transformers>=4.57.1 ``` 接着按照以下代码运行: @@ -54,7 +54,7 @@ pip install git+https://github.com/huggingface/transformers.git from transformers import AutoProcessor, Glm4vForConditionalGeneration import torch -MODEL_PATH = "THUDM/GLM-4.1V-9B-Thinking" +MODEL_PATH = "zai-org/GLM-4.1V-9B-Thinking" messages = [ { "role": "user", @@ -90,5 +90,5 @@ print(output_text) ``` -视频推理,网页端Demo部署等更代码请查看我们的 [github](https://github.com/THUDM/GLM-4.1V-Thinking)。 +视频推理,网页端Demo部署等更代码请查看我们的 [github](https://github.com/zai-org/GLM-V)。