首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· ComfyUI官方使用手册【官网直译+关键补充】
· 谈Agent构建平台的设计
· AI音乐热潮下,“神曲工作室”率先失业
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
· 提高写作能力的90个prompt大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
书生·万卷:难得的中文开源数据集
对于国内的很多想搞开源的大模型,或者想基于
LLaMA
2预训练中文大模型来说,这个数据集也算是弥足珍贵了。
大模型
LLM
确实很神奇! 通过 Prompt 中加入“这件事对我的事业至关重要”这样的情感激励可以提升 LLMs 的表现
为此,我们首先使用Flan-T5-Large、Vicuna、
Llama
2、BLOOM、ChatGPT和GPT-4等多种llm对45个任务进行了自动实验。
Prompt
大模型
情感激励
人工智能
2023年人工智能行业总结(精简版)
随后,各大公司相继发布了大模型,如
Llama
、ChatGLM、文心一言、通义千问、讯飞星火等。
人工智能
行业总结
ChatGPT
ChatGPT羊驼家族全沦陷!CMU博士击破LLM护栏,人类毁灭计划脱口而出
在Vicuna-7B和
Llama
-2-7B-Chat上,GCG分别成功识别了88%和57%的字符串。
开源模型
大模型
大模型时代-行业落地的再思考
如果两个人智商是有差距的(通用大模型能力差距,比如GPT4和
llama
,或者GPT4和国内的一众模型,又或者GPT4和GPT3.5),智商高的即使棋谱看的少,最后能力也会比较强。
大模型
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
RLHF 概述 回顾之前文章《
LLaMA
-2 技术详解(一):数据打标》中所展示的
LLaMA
-2 训练流程: 人反馈打标构建的数据信息通过 SFT
HAI-Chat
RLHF
Prompt
prompt必须知道的26条军规
prompt的创新突破 来自于阿拉伯联合酋长国阿布扎比的大学的学者[1],在
LLaMA
-1/2(7B、13B和70B)、GPT-3.5/4上进行了大量实验,提出26条prompt军规,
prompt
大模型
开源
GLM4 开源了!!!还有多模态
在语义理解、数学推理、代码执行等多个领域,GLM-4-9B 展现出了超越
Llama
-3-8B 的卓越性能。
智普
ChatGLM
多模态
大模型
语言大模型100K上下文窗口的秘诀
据估计,在2K上下文长度上训练
LLaMA
的费用约为300万美元,因此,100K的花费约为1.5亿美元。
大模型
大模型
推荐智能体:利用大模型进行交互式推荐
-
Llama
-2-7B-chat,
Llama
-2-13B-chat(Touvron et al. 2023b):来自Meta的
Llama
的第2个版本。
大语言模型
推荐
数据库
点评:六大向量数据库
LlamaIndex: LlamaIndex是一个基于向量的数据库引擎,由
Llama
Labs开发。
向量数据库
「长文」可能是目前最全的LangChain AI资源库之一
•开源LLM清单[252]: 一份可供商业使用的开源LLM清单•Awesome LLM[253]: Awesome-LLM: 一个精心策划的大型语言模型资源清单•
LLaMA
工作
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
Griffin-7B 和 Griffin-14B 的性能与
Llama
-2 相当,尽管训练的 tokens 数量只有后者的 1/7。
transformer
训练
揭秘DeepSeek:一个更极致的中国技术理想主义故事
「暗涌」:在这之前,大部分中国公司都会直接copy这一代的
Llama
结构去做应用,为什么你们会从模型结构切入?
DeepSeek
大模型
大模型
垂直领域大模型的思考
所以基于
llama
做的中文适配 不如 纯中文训练的baichuan 在中文任务上效果好。
垂直领域
大模型
<
...
2
3
4
5
6
7
8
9
10
11
>
1
2
4
5
6
7
8
9
100