GLM-4.6V-Flash 9B
不支持
128K tokens
多模态大模型
2025-12-08
GLM-4.6V-Flash 是 GLM-4.6V 系列的轻量版(约 9B 参数),面向本地部署与低时延应用场景。其在训练中同样采用 128K 级上下文设置,并继承本系列的原生 Function Calling 能力,用于视觉驱动的工具调用与多模态 Agent。参见 Hugging Face 模型卡 与卡片内链接的 官方文档。
公开信息显示参数量约 9B,为便于单机/边缘侧低成本推理进行了优化;模型卡提供了 vLLM 与 SGLang 推理示例及推荐超参。详见 模型卡。
支持图像+文本输入与文本输出,重点面向文档理解、界面还原/编辑、低延迟的多模态交互,以及在本地资源受限环境下的部署与使用。参见 模型卡。
适用于需要快速响应与本地化部署的多模态任务;模型卡同时提示当前在纯文本 QA、复杂提示下的重复思考等方面仍有改进空间。
权重已发布至 Hugging Face,许可为 MIT,并提供推理代码示例与评测建议。参见 模型卡 与 GLM-V GitHub。
关注DataLearnerAI微信公众号,接受最新大模型资讯