首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
垂直领域大模型的一些思考及开源模型汇总
Q:我是不是用开源
6B
、7B模型自己训练一个模型就够了?
垂直领域
大模型
开源模型
汇总
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
下面我们使用这个工具估算一下清华大学ChatGLM-
6B
模型的结果(第一代的ChatGLM-
6B
模型信息卡地址:https://www.datalearner.com/ai-models
大模型
ChatGLM
清华大学ChatGLM团队发布AI Agent能力评测工具AgentBench:GPT-4是全能战士,超越所有模型
· · 国产模型中,ChatGLM2-
6B
的综合得分最高,也是开源模型最高得分,但也低于谷歌的模型(text-bison-001)。
GPT-4
大模型
惊了,ChatGLM、Vicuna 等热门大模型丝滑 input,跟所有的下载上传说拜拜
ChatGLM-
6B
、ChatGLM2-
6B
、Vicuna-13B……让我看看是哪个小可爱还在吭哧吭哧下载上传?!
下载
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
开源
M3E 可能是最强大的开源中文嵌入模型
感兴趣模型和项目的部署和教程可以看这几篇文章: 教程|使用免费GPU 资源搭建专属知识库 ChatGLM2-
6B
+ LangChain 工程落地实践
开源模型
大模型
万字长文,AI大模型的应用实践总结
大语言模型 目前业界可以下载到的一些大语言模型: · ChatGLM-
6B
/ ChatGLM2-
6B
:清华开源的中英双语的对话语言模型。
大模型
开源
Chinese-LLM开源中文大语言模型合集
Model ChatGLM: 地址:https://github.com/THUDM/ChatGLM-
6B
简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。
大模型
中文
大模型
国内法律类大模型介绍
LexiLaw (2023-05-16) * 基础模型:ChatGLM-
6B
 
法律
大模型
大模型
大模型评测新思路:弱智吧精华问题大全
表 2、表 3 分别显示了基于 Yi-
6B
、Yi-34B 在不同数据集上进行微调得到的不同模型的性能。
弱智吧
训练数据集
大模型
中文通用大模型最全汇总
ChatGLM: 地址:https://github.com/THUDM/ChatGLM-
6B
简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化
大模型
开源模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
不管是
6B
, 7B 和 13B 同样的训练数据,同样训练参数,模型参数量大效果则优于低参数的模型。
大模型
人工智能
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-
6B
, ChatGLM2-
6B
, Vicuna-7b-v1.3 , Qwen-7B- Chat , BELLE-7B-2M
大模型
RAG检索增强
微调
Baichuan-13B 保姆级微调范例
注,本教程是 ChatGLM2-
6b
保姆级微调范例 的兄弟版本~ 😋 出自:https://mp.weixin.qq.com/s/2wgQgApJpG_UfCNWMRKpIg
开源模型
一人搞定30万商品分类:AI落地实践故事!
已知: ·
ChatGLM3
4bit模型在一般的CPU服务器,16GB内存情况下是能跑起来。
embedding
大数据
分类
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100