首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
常用的开源协议说明--一句
话
说明开源协议本质
Apache License 2.0 Apache Licence是
对
商业应用友好的许可。
开源
开源
垂直领域大
模
型
的一些思考及开源
模
型
汇总
而我个人觉得是“借助外部知识进行
问
答
”才是未来,虽然会
对
模
型
推理增加额外成本,但是外部知识是缓解
模
型
幻觉的有效方法。
垂直领域
大模型
开源模型
汇总
面向知识图谱的大
模
型
应用
, 实现面向知识图谱的大
模
型
应用。
知识图谱
大模型
回望做大
模
型
一年后的感悟
o 普通开发者很难在大
模
型
预训练过程中参与,更多是在预训练完成后基于
模
型
做posttraining的工作 o LLaMA
对
国内大
模
型
的生态没有太大影响(仅针
对
预训练) 关于这些观点和别人产生讨论最多的是
大模型
感悟
阿里
体验完阿里的EMO
模
型
,我emo了
一、唠嗑 近日,阿里宣布通义千
问
研发的AI
模
型
—EMO
模
型
正式上线通义千
问
App,并开放给所有用户免费使用。
EMO
文生图
Agent
从第一性原理看大
模
型
Agent技术
这可以通过两种方式实现,一种是具体说明,即要求
模
型
详细地、一步步地思考;另一种是示例说明,即通过给定
问
题和
答
案的同时,提供思考过程。
大模型
agent
开源
国内外开源大语言
模
型
一览表
、CaMA-13B、ChatGLM-6B
模
型
上进行指令精调,大幅提高了
模
型
在中文医疗场景下效果,首先针
对
药品知识
问
答
发布了评测数据集,后续计划优化疾病、手术、检验等方面的
问
答
效果,并针
对
医患
问
答
、病历自动生成等应用展开拓展
大模型
大
模
型
能力快速测评极简题目
【事实能力
问
答
】 “小满”是24节气中的第几个 清朝倒数第二个皇帝是谁?
大模型
大
模
型
:泛化即智能,压缩即一切
这种
模
型
变大所带来的泛化性是否只是把
问
题推迟了,我们不得而知。
大模型
泛化
教育
EduChat:教育行业垂直领域大
模
型
我们采用苏格拉底式的
对
话
方式,多步骤的
问
答
互动,鼓励独立思考。
教育
大模型
垂直领域
ChatGPT
11个非常简短却十分神奇的 ChatGPT 指令,刷新你的认知
提示词工程是指精心设计有针
对
性的
问
题或陈述,以从 ChatGPT 等语言
模
型
中提取最有用、最准确和最全面的信息。
提示词
开源
截至2023年5月份业界支持中文大语言
模
型
开源总结及商用协议分析
系列 MOSS是复旦大学邱锡鹏教授开源的一个大语言
模
型
,由于其良好的意图识别能力和多轮
对
话
能力,被大家所关注。
大模型
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
, '大
模
型
行业的生成场景主要有
对
话
交互,代码开发,智能体等。'
Prompt
大语言模型
RAG
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
(也被称作自回归Transformer
模
型
)大语言
模
型
,Llama 2-Chat 针
对
聊天
对
话
场景进行了微调,采用了监督微调(SFT)和人类反馈强化学习(RLHF)进行了迭代优。
开源模型
混合专家
模
型
(MoE) 详解
Switch Transformers 尽管混合专家
模
型
(MoE) 显示出了很大的潜力,但它们在训练和微调过程中存在稳定性
问
题。
MoE大模型
<
...
7
8
9
10
11
12
13
14
15
16
...
>
1
2
4
5
6
7
8
9
100