首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· ComfyUI官方使用手册【官网直译+关键补充】
· 谈Agent构建平台的设计
· AI音乐热潮下,“神曲工作室”率先失业
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
· 提高写作能力的90个prompt大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
例如:ChatGPT、PaLM、
LLaMA
、ChatGLM等。
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
图解GPT-2 - by Jay Alammar:比前一篇文章更重要,专注于GPT架构,它与
Llama
的架构非常相似。
LLM
大模型
GitHub
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
进入Groq主页,目前有两种可以自选的模型:Mixtral8x7B-32k,
Llama
270B-4k。
Groq
大模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
已注册用户可以直接官网观看,并且可以下载字幕哦~ State of GPT概述 预训练阶段文本的tokenzation预训练阶段的输入和目标OpenAI的基础模型GPT-3与
LLaMA
对比 有监督微调
大模型
大模型
金融行业的开源AI大模型
FinGPT集成了多个模型,如
Llama
-2、Falcon、MPT、Bloom、ChatGLM2、Qwen和InternLM,每个模型都针对特定的语言市场和金融分析任务进行了优化。
开源
大模型
大模型
国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
其次就是MetaAI开源的
LLaMA
系列,甚至第一代的
LLaMA
65B依然排名第六。
大模型
ChatGPT
数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品
为了与Vicuna的70k真实用户数据(ShareGPT)进行公平比较,作者从这25万条数据中抽取了等量的样本,训练
LLaMA
7B模型,最终得到WizardLM,结果WizardLM的性能明显优于
开源模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
而 Meta 去年推出的
Llama
系列震动了行业,并引发了人们对于生成式 AI 开源和闭源路线的讨论。
开源模型
Gemma
万字长文-大语言模型指令调优综述
LLaMA
(13B)在构建的会话数据集上使用一个为多回合会话量身定制的修正损失函数进行微调。
大语言模型
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如
Llama
-3-70B以及Qwen1.5最大的模型
qwen
千问
开源
大模型
【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
首先,为了提高模型在中文领域的性能和训练 / 推理效率,我们进一步扩展了
LLaMA
的词汇表,并在 34 亿个中文词汇上进行了二次预训练。
训练
大模型
belle
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
朱啸虎:(此处思考了2秒……)
LLaMA
上线是非常重要的。
朱啸虎
AGI
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长token成为可能
MIT、Meta AI、CMU的论文 传统AI大模型鱼一样健忘的原因 LLM都是在一定长度的数据块(或者叫做序列)上进行预训练的,比如
Llama
2就是在4000个单词(或者叫做token
StreamingLLM
写作
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
LLMLingua利用紧凑、经过训练的语言模型(例如GPT2-small、
LLaMA
-7B)来识别和移除提示中的非必要标记。
LLMLingua
LlamaIndex
开源框架
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
FLM在四个项目中取得的平均成绩接近GLM-120B和
Llama
-7B,但训练成本显著低于二者。
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100