diff --git a/README.md b/README.md index 07cf210..17f06b4 100644 --- a/README.md +++ b/README.md @@ -1,93 +1,93 @@ ---- -license: mit ---- - -# GLM-4.1V-9B-Thinking - -
- -
-

- 📖 查看 GLM-4.1V-9B-Thinking 论文 。 -
- 💡 立即在线体验 Hugging FaceModelScope 上的 GLM-4.1V-9B-Thinking。 -
- 📍 在 智谱大模型开放平台 使用 GLM-4.1V-9B-Thinking 的API服务。 -

- -## 模型介绍 - -视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外, -逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。 - -基于 [GLM-4-9B-0414](https://github.com/THUDM/GLM-4) 基座模型,我们推出新版VLM开源模型 **GLM-4.1V-9B-Thinking** -,引入思考范式,通过课程采样强化学习 RLCS(Reinforcement Learning with Curriculum Sampling)全面提升模型能力, -达到 10B 参数级别的视觉语言模型的最强性能,在18个榜单任务中持平甚至超过8倍参数量的 Qwen-2.5-VL-72B。 -我们同步开源基座模型 **GLM-4.1V-9B-Base**,希望能够帮助更多研究者探索视觉语言模型的能力边界。 - -![rl](https://raw.githubusercontent.com/THUDM/GLM-4.1V-Thinking/refs/heads/main/resources/rl.jpeg) - -与上一代的 CogVLM2 及 GLM-4V 系列模型相比,**GLM-4.1V-Thinking** 有如下改进: - -1. 系列中首个推理模型,不仅仅停留在数学领域,在多个子领域均达到世界前列的水平。 -2. 支持 **64k** 上下长度。 -3. 支持**任意长宽比**和高达 **4k** 的图像分辨率。 -4. 提供支持**中英文双语**的开源模型版本。 - -## 榜单信息 - -GLM-4.1V-9B-Thinking 通过引入「思维链」(Chain-of-Thought)推理机制,在回答准确性、内容丰富度与可解释性方面, -全面超越传统的非推理式视觉模型。在28项评测任务中有23项达到10B级别模型最佳,甚至有18项任务超过8倍参数量的Qwen-2.5-VL-72B。 - -![bench](https://raw.githubusercontent.com/THUDM/GLM-4.1V-Thinking/refs/heads/main/resources/bench.jpeg) - -## 快速推理 - -这里展现了一个使用`transformers`进行单张图片推理的代码。首先,从源代码安装`transformers`库。 -``` -pip install git+https://github.com/huggingface/transformers.git -``` - -接着按照以下代码运行: - -```python -from transformers import AutoProcessor, Glm4vForConditionalGeneration -import torch - -MODEL_PATH = "THUDM/GLM-4.1V-9B-Thinking" -messages = [ - { - "role": "user", - "content": [ - { - "type": "image", - "url": "https://upload.wikimedia.org/wikipedia/commons/f/fa/Grayscale_8bits_palette_sample_image.png" - }, - { - "type": "text", - "text": "describe this image" - } - ], - } -] -processor = AutoProcessor.from_pretrained(MODEL_PATH, use_fast=True) -model = Glm4vForConditionalGeneration.from_pretrained( - pretrained_model_name_or_path=MODEL_PATH, - torch_dtype=torch.bfloat16, - device_map="auto", -) -inputs = processor.apply_chat_template( - messages, - tokenize=True, - add_generation_prompt=True, - return_dict=True, - return_tensors="pt" -).to(model.device) -generated_ids = model.generate(**inputs, max_new_tokens=8192) -output_text = processor.decode(generated_ids[0][inputs["input_ids"].shape[1]:], skip_special_tokens=False) -print(output_text) -``` - - -视频推理,网页端Demo部署等更代码请查看我们的 [github](https://github.com/THUDM/GLM-4.1V-Thinking)。 - +--- +license: mit +--- + +# GLM-4.1V-9B-Thinking + +
+ +
+

+ 📖 查看 GLM-4.1V-9B-Thinking 论文 。 +
+ 💡 立即在线体验 Hugging FaceModelScope 上的 GLM-4.1V-9B-Thinking。 +
+ 📍 在 智谱大模型开放平台 使用 GLM-4.1V-9B-Thinking 的API服务。 +

+ +## 模型介绍 + +视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外, +逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。 + +基于 [GLM-4-9B-0414](https://github.com/THUDM/GLM-4) 基座模型,我们推出新版VLM开源模型 **GLM-4.1V-9B-Thinking** +,引入思考范式,通过课程采样强化学习 RLCS(Reinforcement Learning with Curriculum Sampling)全面提升模型能力, +达到 10B 参数级别的视觉语言模型的最强性能,在18个榜单任务中持平甚至超过8倍参数量的 Qwen-2.5-VL-72B。 +我们同步开源基座模型 **GLM-4.1V-9B-Base**,希望能够帮助更多研究者探索视觉语言模型的能力边界。 + +![rl](https://raw.githubusercontent.com/THUDM/GLM-4.1V-Thinking/refs/heads/main/resources/rl.jpeg) + +与上一代的 CogVLM2 及 GLM-4V 系列模型相比,**GLM-4.1V-Thinking** 有如下改进: + +1. 系列中首个推理模型,不仅仅停留在数学领域,在多个子领域均达到世界前列的水平。 +2. 支持 **64k** 上下长度。 +3. 支持**任意长宽比**和高达 **4k** 的图像分辨率。 +4. 提供支持**中英文双语**的开源模型版本。 + +## 榜单信息 + +GLM-4.1V-9B-Thinking 通过引入「思维链」(Chain-of-Thought)推理机制,在回答准确性、内容丰富度与可解释性方面, +全面超越传统的非推理式视觉模型。在28项评测任务中有23项达到10B级别模型最佳,甚至有18项任务超过8倍参数量的Qwen-2.5-VL-72B。 + +![bench](https://raw.githubusercontent.com/THUDM/GLM-4.1V-Thinking/refs/heads/main/resources/bench.jpeg) + +## 快速推理 + +这里展现了一个使用`transformers`进行单张图片推理的代码。首先,从源代码安装`transformers`库。 +``` +pip install git+https://github.com/huggingface/transformers.git +``` + +接着按照以下代码运行: + +```python +from transformers import AutoProcessor, Glm4vForConditionalGeneration +import torch + +MODEL_PATH = "THUDM/GLM-4.1V-9B-Thinking" +messages = [ + { + "role": "user", + "content": [ + { + "type": "image", + "url": "https://model-demo.oss-cn-hangzhou.aliyuncs.com/Grayscale_8bits_palette_sample_image.png" + }, + { + "type": "text", + "text": "describe this image" + } + ], + } +] +processor = AutoProcessor.from_pretrained(MODEL_PATH, use_fast=True) +model = Glm4vForConditionalGeneration.from_pretrained( + pretrained_model_name_or_path=MODEL_PATH, + torch_dtype=torch.bfloat16, + device_map="auto", +) +inputs = processor.apply_chat_template( + messages, + tokenize=True, + add_generation_prompt=True, + return_dict=True, + return_tensors="pt" +).to(model.device) +generated_ids = model.generate(**inputs, max_new_tokens=8192) +output_text = processor.decode(generated_ids[0][inputs["input_ids"].shape[1]:], skip_special_tokens=False) +print(output_text) +``` + + +视频推理,网页端Demo部署等更代码请查看我们的 [github](https://github.com/THUDM/GLM-4.1V-Thinking)。 +