首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· AI声音克隆 | 最全最简教程(权威版)
· ComfyUI官方使用手册【官网直译+关键补充】
· Coze多智能体(Multi-Agents)模式体验!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 从第一性原理看大模型Agent技术
· 精通百种语言的翻译AI来了!Meta推出,免费、开源!
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Microsoft
来自Microsoft Build 2023:大语言模型是如何被
训
练
出来的
原因在于LLaMA
训
练
使用的
数
据
集
中tokens更多。
大模型
工具
HAI-Chat:高效且轻量的一键式 RLHF
训
练
工具
前两个步骤是基于特定的
数
据
训
练
准备模型,属于人类反馈(HF)的部分;而 PPO 则是 OpenAI 提出的强化学习算法(RL),基于前两步构建的准备模型再
训
练
提升主干网络。
HAI-Chat
RLHF
大模型
AI里的大模型,你了解么
AI大模型是“人工智能预
训
练
大模型”的简称,是指具有大量参
数
和复杂结构的机器学习模型。
人工智能
GPU 性能(
数
据
表)快速参考
o FP代表浮点运算
数
据
格式,包括双精度(FP64)、单精度(FP32)、半精度(FP16)以及FP8等,INT代表整
数
格式,包括INT8、INT4等。
GPU
算力
点评:六大向量
数
据
库
这一波gpt热潮,90%的企业开发,都是llm+本地知识库
集
成。
向量数据库
主流向量
数
据
库一览
什么是向量
数
据
库?
向量数据库
ChatGPT
模拟ChatGPT流式
数
据
——SSE最佳实践
对于这种对话场景,ChagtGPT 将先计算出的
数
据
“推送”给用户,采用 SSE 技术边计算边返回,避免用户因为等待时间过长关闭页面。。
打字机
sse
大模型
一文读懂GPT-1:生成式预
训
练
如何提升语言理解
GPT-1基本原理 GPT-1模型主要包含两个阶段: 1.利用大量未标注的语料预
训
练
一个语言模型; 2.对预
训
练
好的语言模型进行微改,将其迁移到各种有监督的NLP任务,并对参
数
进行fine-tuning
GPT
大模型
重磅来袭!Llama中文社区开源预
训
练
中文版Atom-7B大模型
| 中文优化 从中文预
训
练
开始,持续迭代升级 🎯中文
数
据
通过测试我们发现,Meta原始的Llama2 Chat模型对于中文问答的对齐效果欠佳,大部分情况下都不能给出中文回答,或者是中英文混杂的形式
大模型
Prompt
Prompt工程如此强大,我们还需要模型
训
练
吗?
3.如果我们还需要模型
训
练
,例如在GPT3基础上把21年以后的
数
据
喂进去,其中学到的新信息与
大模型
大模型
图解大模型
训
练
之:张量模型并行(TP),Megatron-LM
今天我们将要介绍最重要,也是目前基于Transformer做大模型预
训
练
最基本的并行范式:来自NVIDIA的张量模型并行(TP)。
开源模型
Transformer
Transformer速查宝典:模型、架构、
训
练
方法的论文都在这里了
· 它在一个 300B token 的
数
据
集
上进行
训
练
。
Transformer
大模型
微调、
训
练
大模型概念介绍及论文笔记:Tuning系列论文笔记
Tuning整体介绍 微调(Fine-tunning) 语言模型的参
数
需要一起参与梯度更新 轻量微调(lightweight fine-tunning) 冻结了大部分预
训
练
参
数
,仅添加任务层,语言模型层参
数
不变
训练
微调
人工智能
人工智能
训
练
的灾难性遗忘以及解决方案
假定我们遇到了一个非常吝啬的
数
据
提供者,每次只提供一种动物的
数
据
,并在学习完成识别该动物后,将
数
据
收缴上去;然后才给下一个动物的
训
练
数
据
。
人工智能
大模型
微调
Prompt、RAG、微调还是重新
训
练
?如何选择正确的生成式AI的使用方法
由于模型是在用例特定
数
据
上从零开始
训
练
的,所以产生幻觉的几率几乎为零,输出的准确率也是比较中最高的。
生成式AI
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100