首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· AI声音克隆 | 最全最简教程(权威版)
· ComfyUI官方使用手册【官网直译+关键补充】
· Coze多智能体(Multi-Agents)模式体验!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 从第一性原理看大模型Agent技术
· 精通百种语言的翻译AI来了!Meta推出,免费、开源!
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
M3E 可能是最强大的开源中文嵌入模型
感兴趣模型和项目的部署和教程可以看这几篇文章: 教程|使用免费GPU 资源搭建专属知识库
ChatGLM2
-
6B
+ LangChain 工程落地实践
开源模型
大模型
国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
最近一段时间,清华大学
ChatGLM2
-
6B
、阿里巴巴的千问大模型、百川的大模型都陆续开源,中文大模型一篇繁荣。
大模型
开源
国内外开源大语言模型一览表
ChatGLM2
-
6B
https://github.com/THUDM/
ChatGLM2
-
6B
ChatGLM2
-
6B
是开源中英双语对话模型 ChatGLM-
6B
的第二代版本,在保留了初代模型对话流畅
大模型
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-
6B
模型——Windows+6GB显卡版本和CPU版本的本地部署
ChatGLM-
6B
使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。
提示词
prompt
chatgpt
微调
Baichuan-13B 保姆级微调范例
注,本教程是
ChatGLM2
-
6b
保姆级微调范例 的兄弟版本~ 😋 出自:https://mp.weixin.qq.com/s/2wgQgApJpG_UfCNWMRKpIg
开源模型
ChatGLM
更快更好的chatglm3来了
ChatGLM3-
6B
是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-
6B
引入了如下特性: 1.更强大的基础模型:&ensp
开源模型
ChatGLM
开源
最新最全的开源中文大语言模型列表
模型 1.1 文本LLM模型 ChatGLM: 地址:https://github.com/THUDM/ChatGLM-
6B
大模型
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-
6B
,
ChatGLM2
-
6B
, Vicuna-7b-v1.3 , Qwen-7B- Chat , BELLE-7B-2M
大模型
RAG检索增强
大模型
中文通用大模型最全汇总
ChatGLM: 地址:https://github.com/THUDM/ChatGLM-
6B
简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化
大模型
开源模型
大模型
llm-action:让天下没有难学的大模型
从
6B
到65B,从全量微调到高效微调(LoRA,QLoRA,P-Tuning v2),再到RLHF(基于人工反馈的强化学习)。
大模型
LLM
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
Baichuan-13B-Chat 50.4
ChatGLM2
通义千问
大模型
大模型评测新思路:弱智吧精华问题大全
表 2、表 3 分别显示了基于 Yi-
6B
、Yi-34B 在不同数据集上进行微调得到的不同模型的性能。
弱智吧
训练数据集
万字长文-大语言模型指令调优综述
4.9
ChatGLM2
ChatGLM2
(
6B
) (Du et al., 2022)是在包含中英文指令的双语数据集上通过微调 GLM (
6B
) (Du et al., 2022)训练的语言模型。
大语言模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录
Baichuan-13B-Chat 50.4
ChatGLM2
大模型
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
九、多模态大模型MiniGPT-4 十、StabilityAI发布的StableLM和StableVicuna 十一、开源可商用的MPT系列 十二、清华大学的ChatGLM-
6B
大模型
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100