首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· Fooocus,webui,comfyui优缺点
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· YOO简历
· Midjourney AI绘画美女提示词分享三
· stable diffusion如何确保每张图的面部一致?
· Stable Diffusion使用Roop插件一键换脸教程
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
个人从零预
训
练
1B LLM心路历程
因此,项目后期我就把收
集
数
据
的这个事情从github主页上下架了,在我的第一篇文章中,读者还是能看到“收
集
数
据
”相关的描述。
LLM
训练
工具
HAI-Chat:高效且轻量的一键式 RLHF
训
练
工具
前两个步骤是基于特定的
数
据
训
练
准备模型,属于人类反馈(HF)的部分;而 PPO 则是 OpenAI 提出的强化学习算法(RL),基于前两步构建的准备模型再
训
练
提升主干网络。
HAI-Chat
RLHF
大模型
总结!大模型微调(Tuning)的常见方法
这是通过在与任务相关的
数
据
集
上
训
练
模型来完成的。
微调
大模型
大模型
AI里的大模型,你了解么
AI大模型是“人工智能预
训
练
大模型”的简称,是指具有大量参
数
和复杂结构的机器学习模型。
人工智能
GPU 性能(
数
据
表)快速参考
o FP代表浮点运算
数
据
格式,包括双精度(FP64)、单精度(FP32)、半精度(FP16)以及FP8等,INT代表整
数
格式,包括INT8、INT4等。
GPU
算力
一文读懂GPT-1:生成式预
训
练
如何提升语言理解
GPT-1基本原理 GPT-1模型主要包含两个阶段: 1.利用大量未标注的语料预
训
练
一个语言模型; 2.对预
训
练
好的语言模型进行微改,将其迁移到各种有监督的NLP任务,并对参
数
进行fine-tuning
GPT
ChatGPT
模拟ChatGPT流式
数
据
——SSE最佳实践
对于这种对话场景,ChagtGPT 将先计算出的
数
据
“推送”给用户,采用 SSE 技术边计算边返回,避免用户因为等待时间过长关闭页面。。
打字机
sse
大模型
点评:六大向量
数
据
库
这一波gpt热潮,90%的企业开发,都是llm+本地知识库
集
成。
向量数据库
主流向量
数
据
库一览
什么是向量
数
据
库?
向量数据库
大模型
重磅来袭!Llama中文社区开源预
训
练
中文版Atom-7B大模型
| 中文优化 从中文预
训
练
开始,持续迭代升级 🎯中文
数
据
通过测试我们发现,Meta原始的Llama2 Chat模型对于中文问答的对齐效果欠佳,大部分情况下都不能给出中文回答,或者是中英文混杂的形式
大模型
Prompt
Prompt工程如此强大,我们还需要模型
训
练
吗?
3.如果我们还需要模型
训
练
,例如在GPT3基础上把21年以后的
数
据
喂进去,其中学到的新信息与
大模型
大模型
图解大模型
训
练
之:张量模型并行(TP),Megatron-LM
今天我们将要介绍最重要,也是目前基于Transformer做大模型预
训
练
最基本的并行范式:来自NVIDIA的张量模型并行(TP)。
开源模型
大模型
微调、
训
练
大模型概念介绍及论文笔记:Tuning系列论文笔记
Tuning整体介绍 微调(Fine-tunning) 语言模型的参
数
需要一起参与梯度更新 轻量微调(lightweight fine-tunning) 冻结了大部分预
训
练
参
数
,仅添加任务层,语言模型层参
数
不变
训练
微调
Transformer
Transformer速查宝典:模型、架构、
训
练
方法的论文都在这里了
· 它在一个 300B token 的
数
据
集
上进行
训
练
。
Transformer
人工智能
人工智能
训
练
的灾难性遗忘以及解决方案
假定我们遇到了一个非常吝啬的
数
据
提供者,每次只提供一种动物的
数
据
,并在学习完成识别该动物后,将
数
据
收缴上去;然后才给下一个动物的
训
练
数
据
。
人工智能
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100