本篇知识库现已被收录进官方飞书社区:飞书社区
自 2019 年成立以来,智谱致力于大模型技术的研究和推广工作。自 2020 年,我们推出并开源了多款模型(如上图所示),它们具有不同的能力,开发者可以对这些模型进行使用和定制。
智谱一直致力于制作更好的开源模型,在本章节中,我们将展示智谱目前所有的开源模型,如果您对我们的开源模型的细节和使用感兴趣,欢迎前往我们的技术文档:
同时,智谱AI也推出了优秀的产品,关于更多产品的细节,欢迎大家访问
如果您对智谱往期举办的活动,竞赛有兴趣,欢迎访问
下表为智谱开源的语言模型列表
| 模型 | 介绍 | 上下文token数 | 代码链接 | 模型权重下载链接 |
|---|---|---|---|---|
| GLM-ASR | **GLM-**ASR-Nano-2512 是一款鲁棒的开源语音识别模型,参数量为 1.5B。 该模型专为应对真实世界的复杂场景而设计,在多项基准测试中超越 OpenAI Whisper V3,同时保持紧凑的模型规模。 | 8K | GLM-ASR | 🤗 Huggingface |
| GLM-V | GLM-4.6V 系列包含两个版本:GLM-4.6V(106B),面向云端与高性能集群场景;GLM-4.6V-Flash(9B),面向本地部署与低延迟应用的轻量版。GLM-4.6V 在训练中将上下文窗口扩展至 128k tokens,并在相同参数规模下实现视觉理解的 SOTA 性能。 | 128K | GLM-V | 🤗 Huggingface |
| GLM-5 | GLM-5 是智谱推出的新一代模型。 | 198K | GLM-5 | 🤗 Huggingface |
| GLM**-4.X** | GLM**-4.7 面向真实**工程与复杂任务场景,在多语言智能体编程、终端操作、工具使用与复杂推理等方面实现显著提升:相较 GLM-4.6,在 SWE-bench、SWE-bench Multilingual 与 Terminal Bench 2.0 等基准上均大幅领先,并支持“先思考、后行动”的执行范式,能够在 Claude Code、Kilo Code、Cline、Roo Code 等主流智能体框架中稳定完成复杂任务;同时,GLM-4.7 具备更强的 UI 与氛围编程能力,可生成更现代、美观且布局精准的网页与幻灯片,并在 τ²-Bench、BrowseComp 及 HLE 等测试中展现出更优的工具协同与高阶推理能力。 | 198K | GLM-4.X系列 | 🤗 Huggingface |
| GLM-4-0414 | GLM-4-32B-0414 系列兼顾高性能与友好的本地部署能力,涵盖基础模型、深度推理模型、沉思研究模型及 9B 轻量版本,在工程代码、复杂推理、智能体任务与研究型写作等场景中表现突出,整体能力达到同级开源模型领先水平。 | 32K | GLM-4-0414 | 🤗 Huggingface |
| GLM-4-Voice | GLM-4-Voice 是智谱推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够遵循用户的指令要求改变语音的情感、语调、语速、方言等属性。 | 8K | GLM-4-Voice | 🤗 Huggingface |
| GLM-4-9B | 第四代 GLM 基座模型。GLM-4-9B 是智谱推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。 | 8K | GLM-4 | 🤗 Huggingface 🤖 ModelScope 🟣 WiseModel |
| GLM-4-9B-Chat | 第四代 GLM 对话模型。GLM-4-9B-Chat 表现出超越 Llama-3-8B 的卓越性能。除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。 | 128K | 🤗 Huggingface 🤖 ModelScope 🟣 WiseModel | |
| GLM-4-9B-1M | 第四代 GLM 长上下文对话模型。支持 1M 上下文长度(约 200 万中文字符)的推理。 | 1M | 🤗 Huggingface 🤖 ModelScope 🟣 WiseModel | |
| GLM-4V-9B | **第四代 GLM 多模态模型。**该模型基于 GLM-4-9B,具备 1120 * 1120 高分辨率下的中英双语多轮对话能力,在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中,GLM-4V-9B 表现出超越 GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max 和 Claude 3 Opus 的卓越性能。 | 8K | 🤗 Huggingface 🤖 ModelScope 🟣 WiseModel | |
| LongWriter | 具备 10+ 字/词输出能力的模型,包含LongWriter-9B(GLM-4-9B微调)和 LongWriter-8B(Llama3-8B 微调) | 128k | LongWriter | |
| ChatGLM3-6B | 第三代** ChatGLM 对话模型。**ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。 | 8K | ChatGLM3 | Huggingface |
| ChatGLM3-6B-base | **第三代ChatGLM基座模型。**ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。 | 8K | Huggingface | |
| ChatGLM3-6B-32k | 第三代ChatGLM长上下文对话模型。在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 32K | Huggingface | |
| ChatGLM2-6B | **第二代 ChatGLM 对话模型。**相比一代模型,具有更强的性能,且其基座模型的上下文长度从 2k 扩展到 32k,并在对话阶段使用 8K 的上下文长度训练。推理速度相比初代提升42%。 | 8K | ChatGLM2 | Huggingface |
| ChatGLM2-6B-int4 | ChatGLM2-6B的 int4 量化版本,具备最小 5.1GB 显存即可运行。INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。 | 8K | Huggingface | |
| ChatGLM2-6B-32k | 第二代 ChatGLM 长上下文对话模型。ChatGLM2-6B-32K在ChatGLM2-6B 的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体地,我们基于位置插值(Positional Interpolation)的方法对位置编码进行了更新,并在对话阶段使用 32K 的上下文长度训练。在实际的使用中,如果您面临的上下文长度基本在 8K 以内,我们推荐使用ChatGLM2-6B;如果您需要处理超过 8K 的上下文长度,我们推荐使用ChatGLM2-6B-32K。 | 32K | Huggingface | |
| ChatGLM2-6B-32k-int4 | ChatGLM2-6B-32K的int4版本 | 32K | Huggingface | |
| ChatGLM-6B | 第一代 ChatGLM 对话模型。支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。 | 2K | ChatGLM | Huggingface |
| ChatGLM-6B-int4 | ChatGLM-6B的Int4版本。最低只需 6GB 显存即可部署,最低只需 7GB 显存即可启动微调(P-Tuning v2) | 2K | Huggingface | |
| ChatGLM-6B-int8 | ChatGLM-6B的Int8版本 | 2K | Huggingface | |
| AgentLM-7B | 1. 我们提出了一种 AgentTuning 的方法; | 4K | AgentTuning | 🤗Huggingface Repo |
| AgentLM-13B | 4K | 🤗Huggingface Repo | ||
| AgentLM-70B | 8K | 🤗Huggingface Repo |
| 模型 | 介绍 | 代码链接 | 模型下载 |
|---|---|---|---|
| CogVideoX-5B | CogVideoX-5B ****模型更大,视频生成质量更高,视觉效果更好。 | huggingface|魔塔社区 | |
| CogVideoX-2B | CogVideoX 系列视频生成模型的第一个模型, CogVideoX-2B | CogVideoX | Huggingface|魔搭社区 |
| CogVideo | CogVideo 视频生成模型(现在你可以在 CogVideo 分支中看到),这是首个开源的基于 Transformer 的大型文本生成视频模型,您可以访问 ICLR'23 论文 查看技术细节。 | CogVideo |
| 模型 | 介绍 | 代码链接 | 模型下载 |
|---|---|---|---|
| RDM | Relay Diffusion Model:级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。 | RDM | |
| CogView2 | CogView2 是一个用于通用领域文本到图像生成的分层变压器(参数为6B-9B-9B)。这个实现基于 SwissArmyTransformer 库(v0.2)。 | CogView2 | |
| CogView | CogView 是一个在通用领域用于文本到图像生成的预训练(4B参数)变压器。 | CogView |
智谱致力于推动多模态模型的发展,因此,我们推出了具有视觉和语言双模态的模型。
| 模型 | 介绍 | 代码链接 | 模型下载 |
|---|---|---|---|
| GLM-4.1V-9B-Thinking | GLM-4.1V-9B-Thinking 引入思考范式,通过课程采样强化学习 RLCS(Reinforcement Learning with Curriculum Sampling)全面提升模型能力, 达到 10B 参数级别的视觉语言模型的最强性能,在18个榜单任务中持平甚至超过8倍参数量的 Qwen-2.5-VL-72B。 | https://github.com/THUDM/GLM-4.1V-Thinking | https://huggingface.co/THUDM/GLM-4.1V-9B-Thinking |
| CogVLM2-Video | CogVLM2 模型的视频理解版本 CogVLM2-Video 模型,通过抽取关键帧的方式,实现对连续画面的解读,该模型可以支持最高1分钟的视频。 | CogVLM2-Video | Huggingface |
| CogVLM2-19B | 我们推出了新一代的 CogVLM2 系列模型并开源了两款基于 Meta-Llama-3-8B-Instruct 开源模型。与上一代的 CogVLM 开源模型相比,CogVLM2 系列开源模型具有以下改进: | CogVLM2 | Huggingface |
| CogAgent-18B | **基于 CogVLM-**17B 改进的开源视觉语言模型。CogAgent-18B 拥有110亿视觉参数和70亿语言参数,支持 1120*1120 分辨率的图像理解,在CogVLM功能的基础上,具备GUI图像的Agent能力。 | CogVLM & CogAgent | Huggingface |
| CogVLM-17B | 强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM 可以在不牺牲任何 NLP 任务性能的情况下,实现视觉语言特征的深度融合。我们训练的 CogVLM-17B是目前多模态权威学术榜单上综合成绩第一的模型,在14个数据集上取得了state-of-the-art或者第二名的成绩。 | Huggingface | |
| Visualglm-6B | VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。 | VisuaGLM | Huggingface |
| 模型 | 介绍 | 代码链接 | 模型下载 |
|---|---|---|---|
| CodeGeeX4 | CodeGeeX4-ALL-9B,这是最新的 CodeGeeX4 系列模型的开源版本。该模型是在 GLM-4-9B 基础上持续训练的多语言代码生成模型,显著提升了代码生成能力。使用单个 CodeGeeX4-ALL-9B 模型,可以支持代码补全与生成、代码解释、联网搜索、函数调用、仓库级代码问答等多种功能,覆盖了软件开发的各个场景。CodeGeeX4-ALL-9B 在 BigCodeBench 和 NaturalCodeBench 等公开基准测试中取得了极具竞争力的表现。它是目前参数量少于 100 亿的最强代码生成模型,甚至超越了更大的通用模型,在推理速度和模型性能方面达到了最佳平衡。 | CodeGeeX4 | Huggingface |
| CodeGeeX2-6B | CodeGeeX2 是多语言代码生成模型 CodeGeeX (KDD’23) 的第二代模型。不同于一代 CodeGeeX ,CodeGeeX2 是基于 ChatGLM2 架构加入代码预训练实现,得益于 ChatGLM2 的更优性能,CodeGeeX2 在多项指标上取得性能提升(+107% > CodeGeeX;仅60亿参数即超过150亿参数的 StarCoder-15B 近10%)。 | CodeGeeX2 | Huggingface |
| CodeGeeX2-6B-int4 | CodeGeeX2 的量化版本 | Huggingface | |
| CodeGeeX-13B | 第一代 CodeGeeX,具有130亿参数的多编程语言代码生成预训练模型。CodeGeeX采用华为MindSpore框架实现,在鹏城实验室“鹏城云脑II”中的192个节点(共1536个国产昇腾910 AI处理器)上训练而成。 | CodeGeeX | CodeGeeX下载 |
我们还开源了以下模型,以便用户使用我们多元化的产品。
| 模型 | 介绍 | 代码链接 | 模型下载 |
|---|---|---|---|
| WebGLM-10B | 利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。它旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。 | WebGLM | Huggingface |
| WebGLM-2B | Huggingface | ||
| MathGLM-2B | 在训练数据充足的情况下,20亿参数的MathGLM模型能够准确地执行多位算术运算,准确率几乎可以达到100%,其结果显著超越最强大语言模型GPT-4在相同测试数据上18.84%的准确率。 | MathGLM | THU-Cloud |
| MathGLM-500M | THU-Cloud | ||
| MathGLM-100M | THU-Cloud | ||
| MathGLM-10M | THU-Cloud | ||
| MathGLM-Large | 采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLM-large 和 GLM-10B。此外,还使用 ChatGLM-6B 和 ChatGLM2-6B 作为基座模型来训练 MathGLM。这些骨干模型赋予 MathGLM 基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。 | THU-Cloud | |
| MathGLM-10B | THU-Cloud | ||
| MathGLM-ChatGLM-6B | THU-Cloud | ||
| MathGLM-ChatGLM2-6B | THU-Cloud |
智谱AI提供的所有开源模型均可以在以下平台进行下载:
Huggingface | 魔搭社区 | 启智社区 | 始智社区 | SwanHub
欢迎开发者和用户下载我们的开源模型。
智谱提供的所有开源模型均可下载后基于完全离线的环境使用,用户无需担心数据泄露等风险!
智谱所有的开源模型对学术研究完全开放,部分模型(ChatGLM系列)在填写问卷进行登记后亦允许免费商业使用。
AI模型可能犯错,由于模型回答造成的后果,智谱AI不承担相应责任。
