GL

GLM-4.6V-Flash

多模态大模型

GLM-4.6V-Flash 9B

发布时间: 2025-12-08

11
模型参数(Parameters)
90.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

128K tokens

最长输出结果
暂无数据
模型类型

多模态大模型

发布时间

2025-12-08

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
MIT License - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

GLM-4.6V-Flash模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

GLM-4.6V-Flash 9B模型解读

概览与定位

GLM-4.6V-Flash 是 GLM-4.6V 系列的轻量版(约 9B 参数),面向本地部署与低时延应用场景。其在训练中同样采用 128K 级上下文设置,并继承本系列的原生 Function Calling 能力,用于视觉驱动的工具调用与多模态 Agent。参见 Hugging Face 模型卡 与卡片内链接的 官方文档

架构与技术规格

公开信息显示参数量约 9B,为便于单机/边缘侧低成本推理进行了优化;模型卡提供了 vLLM 与 SGLang 推理示例及推荐超参。详见 模型卡

模态与核心能力

支持图像+文本输入与文本输出,重点面向文档理解、界面还原/编辑、低延迟的多模态交互,以及在本地资源受限环境下的部署与使用。参见 模型卡

应用与限制

适用于需要快速响应与本地化部署的多模态任务;模型卡同时提示当前在纯文本 QA、复杂提示下的重复思考等方面仍有改进空间。

获取方式与许可

权重已发布至 Hugging Face,许可为 MIT,并提供推理代码示例与评测建议。参见 模型卡GLM-V GitHub

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat