GLM-4.6V 106B-A12B
不支持
128K tokens
多模态大模型
2025-12-08
GLM-4.6V 是 Zhipu AI(Z.ai)面向视觉-语言任务的新迭代多模态大模型系列,相对 GLM-4.5V 进行了全面升级。官方介绍显示,该系列在训练阶段将上下文规模扩展至 128K,并首次引入原生的 Function Calling,用于跨“视觉感知”与“可执行动作”的闭环,多用于真实业务场景中的多模态 Agent。参见 Z.ai 开发者文档 与 Hugging Face 模型卡。
该版本在公开页面被标注为约 106–108B 参数规模的多模态模型(组织页显示 108B;新闻稿与简介多以“106B-A12B”表述,对应稀疏 MoE 架构下约 12B 激活参数规模)。训练期间上下文为 128K(训练设置),适配长文档与多文档场景。详见 Hugging Face 与 文档。
该模型支持图像+文本输入、文本输出,强调多模态文档理解(版面结构、图表、表格、图形联合解析)、前端界面复刻与视觉编辑,以及在生成过程中进行跨模态的内容组织。引入原生 Function Calling 后,可将视觉输入直接作为工具参数参与调用,支持在视觉-检索-执行链路中的工具使用闭环。详见 官方文档。
官方展示其在同等参数量级上的多模态理解达到领先水平(SoTA @ similar scale),并给出若干基准与示例;具体得分以模型卡/文档附图为准。参见 模型卡。
推荐应用包括多模态文档理解、UI 还原与编辑、图表/检索-增强内容生产,以及需要视觉驱动工具使用的业务型 Agent。模型卡同时提示若干局限(如纯文本 QA 仍有改进空间、复杂提示下可能出现重复思考等),详见 模型卡。
权重已在 Hugging Face 发布,许可为 MIT;推理可使用 vLLM 或 SGLang,开发者文档与示例代码已提供。参见 Hugging Face、文档 与 GLM-V GitHub。
关注DataLearnerAI微信公众号,接受最新大模型资讯