首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
使用自己的数据训练清华ChatGLM2-
6B
模型
nbsp;全局切换 3.10.4 版本 pyenv global 3.10.4 下载源码 https://github.com/THUDM/ChatGLM2-
6B
ChatGLM2-6B
ChatGLM
从0到1基于ChatGLM-
6B
使用LoRA进行参数高效微调
因此,它的中文能力很弱,即使对其进行有监督的微调,同等参数规模下,它的中文能力也是要弱于bloom-7b1、chatglm-
6b
等。
大模型
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-
6B
模型——Windows+6GB显卡版本和CPU版本的本地部署
ChatGLM-
6B
使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。
提示词
prompt
chatgpt
开源
开源大语言模型完整列表
开源中文 LLM ChatGLM-
6B
—— 双语对话语言模型 ChatGLM-
6B
是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。
开源模型
大语言模型
大模型
llm-action:让天下没有难学的大模型
从
6B
到65B,从全量微调到高效微调(LoRA,QLoRA,P-Tuning v2),再到RLHF(基于人工反馈的强化学习)。
大模型
LLM
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
ChatGLM3
采用了智谱 AI 独创的多阶段增强预训练方法、集成了自研的 AgentTuning 技术,并瞄向 GPT-4V 做技术升级。
智谱
AI
开源
国内外开源大语言模型一览表
ChatGLM-
6B
https://github.com/THUDM/ChatGLM-
6B
https://github.com/THUDM/ChatGLM-
6B
/tree/main/
大模型
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
九、多模态大模型MiniGPT-4 十、StabilityAI发布的StableLM和StableVicuna 十一、开源可商用的MPT系列 十二、清华大学的ChatGLM-
6B
大模型
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们还是坚持用国产大模型(如Baichuan2-13B、
ChatGLM3
-
6B
和QWen-14B等),毕竟主要服务的还是国内客户,加上现在接触的多数客户其实都有私有化部署的需求。
RAG
检索增强
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
1.3 ChatGLM-
6B
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
微调
训练
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
我们在权威数据集,LongBench多文档问答任务中测试了GPT3.5-turbo-16k和ChatGLM2-
6B
-32k[2]。
大模型
Ziya
CodeGeeX2来了!效果超LLaMA2-70B
很多时候对于公司内部业务代码开发场景,由于代码安全性,很难使用 Github Copilot 去 AI 生成,发现清华发布了「CodeGeeX2」,基于 ChatGLM2-
6B
基座模型
CodeGeeX2
开源模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-
6B
, LLaMA-7B模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
开源
最新最全的开源中文大语言模型列表
模型 1.1 文本LLM模型 ChatGLM: 地址:https://github.com/THUDM/ChatGLM-
6B
大模型
大模型
大模型实践总结
大语言模型 目前业界可以下载到的一些大语言模型: ChatGLM-
6B
:中英双语的对话语言模型。
大模型
训练
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100