首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆肝!超详细的胎教级Midjourney使用教程,看这一篇就够!
· Markdown 介绍及使用教程
· 大模型训练为什么用A100不用4090
· SD好复杂,是不是很糊,一文搞懂Stable Diffusion的各种模型及用户操作界面
· 如何构建基于大模型的App
· Stable Diffusion|提示词高阶用法(二)双人同图
· 盘点数据安全合规方向的热门证书【快来了解一下】
· 「长文」可能是目前最全的LangChain AI资源库之一
· 如何下载及使用通义千问7B开源大模型
· 喂饭级 AI’MWISE 启动器安装教程
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
图解检索增强式生成(RAG)技术 | 万字长文
关于检索器评估的简单管道例子请看: https://github.com/run-
llama
/finetune-embedding/blob/main/evaluate.ipynb 它已应用于编码器微调部分
检索增强式生成
RAG
大模型
大模型的研究新方向:混合专家模型(MoE)
近期Mistral AI发布的Mistral 8x7B模型是由70亿参数的小模型组合起来的MoE模型,直接在多个跑分上超过了多达700亿参数的
Llama
2。
MoE
大模型
2024,智谱如何更快?
而国内很多厂商都是基于
Llama
开源来训练的模型。
GPT-4
大语言模型
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
这些大模型也因为其能力在业内备受青睐:Baichuan 系列开源模型在各大开源社区的累积下载量已突破六百万次;Baichuan 2 更是在各维度全面领先
Llama
2,引领了中国开源生态发展。
Baichuan2
百川
开源
ChatGPT
一个小妙招从Prompt菜鸟秒变专家!加州大学提出PromptAgent,帮你高效使用ChatGPT!
由于较低级别和较小规模的LLM模型(如GPT-2或
LLaMA
)可能无法熟练掌握这些专家级Prompt的微妙之处,会导致显著的性能下降。
PromptAgent
大模型
大模型
通俗解读大模型微调(Fine Tuning)
论文中举的例子,65B的
LLaMA
的微调要780GB的GPU内存;而用了QLoRA之后,只需要48GB。
大模型
微调
开源
构建开源多模态RAG系统
值得注意的是,我们的重点是在不依赖LangChain或
Llama
索引的情况下实现这一点;相反,我们将利用ChromeDB和Hugging Face框架。
RAG
大模型
混合专家模型 (MoE) 详解
· OpenMoE: 社区对基于
Llama
的模型的 MoE 尝试。
MoE大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
1)
llama
Stanford Alpaca : 模版: 1 { 2 3 "description": "Template used by Alpaca-LoRA
prompt
大模型
为什么说AI现在还不行!
注2:关于AI的计算模式参见《开源大模型
LLaMA
2会扮演类似Android的角色么?》
大模型
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
刚刚,Scale AI 的一篇论文对当前最热门的大模型进行了深度调查,包括 OpenAI 的 GPT-4、Gemini、Claude、Mistral、
Llama
过拟合
小模型
Deepseek-V2技术报告解读!全网最细!
Linear(in_features=5120, out_features=102400, bias=False) ) 我们从上往下,从embedding层的维度来看,与Gemma,
LLaMA
Deepseek-V2
大模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
Billion参数(也有人认为是6B、7B, 工业界用, 开始展现涌现能力);经典大模型有GPT-3、BLOOM、Flan-T5、GPT-NeoX、OPT、GLM-130B、PaLM、LaMDA、
LLaMA
大模型
AGI
Yann LeCun杨立昆最新观点:AGI不存在
您在职业生涯中一直是开放研究的大力倡导者,Meta 采取了有效开源其最强大的大型语言模型(最近的
Llama
3)的政策。
AGI
大语言模型
观点
大模型
大模型压缩首篇综述来啦~
LLM-QAT能够将带有量化权重和KV缓存的大型
LLaMA
模型蒸馏为仅有4位的模型。
大模型
<
...
3
4
5
6
7
8
9
10
11
12
>
1
2
4
5
6
7
8
9
100