首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Baichuan-13B 保姆级
微
调
范例
本范例
微
调
的模型是Baichuan-13B-Chat,我们使用非常简单的,外卖评论数据集来实施
微
调
,对一段外卖评论区分是好评还是差评。
开源模型
LLM
2024!深入了解 大语言模型(LLM)
微
调
方法(总结)
其中主要包括什么是大模型
微
调
、什么时候需要大模型
微
调
、大模型
微
调
方法总结、大模型
微
调
最佳实践等。
大模型
微调
ChatGLM
手把手带你
微
调
一个自己的 ChatGLM2-6B 模型
snapshots/0ecfe0b857efd00836a4851b3dd2ed04bd4b197f 准备数据集 我们这次训练知识简单做一下 demo,所以不进行大量数据的训练,只使用他原有的文件
调
整下认知即可
ChatGLM2-6B
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效
微
调
实践
下图是LLaMA-7B进行高效参数
微
调
和全量
微
调
的损失变化曲线。
大模型
微调
训练
大模型
大模型高效
微
调
:🤗 PEFT 使用案例
PEFT介绍 🤗 PEFT(Parameter-Efficient Fine-Tuning,参数高效
微
调
),是一个用于在不
微
调
所有模型参数的情况下,高效地将预训练语言模型(PLM)适应到各种下游应用的库
大模型
大模型
大模型
微
调
数据选择和构造技巧
大模型场景
微
调
里面,最关键地的一个是问题是: 选择什么样的数据
微
调
?
大模型
微调
大模型
微
调
、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
Tuning整体介绍
微
调
(Fine-tunning) 语言模型的参数需要一起参与梯度更新 轻量
微
调
(lightweight fine-tunning) 冻结了大部分预训练参数,仅添加任务层,语言模型层参数不变
训练
微调
一文讲明白什么是预训练、
微
调
和上下文学习
这些模型通过预训练、
微
调
和上下文学习的组合来学习。
大模型
训练
大模型
【手把手带你
微
调
Llama3】 改变大模型的自我认知,单卡就能训
微
调
Llama3的自我认知后 当你问Llama3中文问题: “你叫什么名字?”
Llama3
对话问答模型
NEFTune:在Embedding中加入噪⾳提⾼指令
微
调
效果!
通常情况下,我们使⽤更好的基础模型、更⼤的数据集⼤⼩以及更⾼质量的数据来提升⼤型语⾔模型(LLM)
微
调
性能
NEFTune
大语言模型
微
调
大型语言模型-核心思想和方法介绍
上面提到的快速
调
整方法提供了一种比参数
微
调
更节省资源的替代方法。
大模型
训练
大模型
大模型
微
调
经验汇总---LLM finetuning 踩坑经验之谈
但我们没有 GPU 资源, 我们可以选择开源的中文模型直接做
微
调
。
大模型
人工智能
大模型
微
调
百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
本文旨在帮助读者快速掌握使用Firefly项目
微
调
Baichuan-13B模型,该教程同样适用于
微
调
llama、ziya、bloom等模型,并且Firefly项目正在逐步适配更多开源大模型,包括InternLM
大模型
微调
大模型
复旦开源中文医疗大模型,基于百川
微
调
,模型和数据集都公开
为了满足患者的需求,我们采取了一项创新的举措,通过人工筛选,构建了符合人类偏好的高质量小规模行为
微
调
样本。
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效
微
调
之前尝试了基于LLaMA使用LoRA进行参数高效
微
调
,有被惊艳到。
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100