首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 硬核解读Stable Diffusion(系列三)
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 使用python调用comfyui-api,实现出图自由
· stable diffusion如何确保每张图的面部一致?
· 教会AI画汉字(ComfyUI篇)
· 最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
· 数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 11个顶级的Prompts,用GPT学习的天花板
· Prompt工程入门
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
2万字大模型
调
研
:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
深入
调
研
,真实体验!
大模型
调研
Sora
微软
研
究团队:Sora核心技术及未来机会
研
究报告-中英对照版
不同于以往将视频统一
调
整大小、裁剪或修剪的方法,Sora 保留视频的原始尺寸进行训练。
sora
论文
四种微
调
技术详解:SFT 监督微
调
、LoRA 微
调
、P-tuning v2、Freeze 监督微
调
方法
在这篇文章中,我们将深入探讨四种不同的人工智能大语言模型微
调
技术:SFT 监督微
调
、LoRA 微
调
方法、P-tuning v2 微
调
方法和Freeze 监督微
调
方法。
大模型
大模型
【大模型微
调
】 Llama 2 :对话模型的全过程微
调
微
调
(Fine-tuning) Llama 2-Chat 是经过数月的
研
究并结合对齐技术进行迭代的结果,其中微
调
和 RLHF 都需要大量的计算和标注资源。
大模型
AI改变未来,ChatDoc手把手教你写
研
报
举个例子,如何用CHatDoc来快速写
研
报。
大模型应用
写作
RAG
2023检索增强生成技术(RAG)
研
究进展
正是这种对前沿科技的不懈追求,推动了RAG技术在2023年成为
研
究的热点。
RAG
检索增强
大语言模型微
调
:定制自己的微
调
数据集
随着大型语言模型如ChatGPT的流行,许多
研
究机构,企业,兴趣爱好者等都正在尝试微
调
大语言模型(large language model),以适应特定的应用场景。
大模型
Meta
如何微
调
Meta Llama-3 8B
Meta 推出了 Meta Llama 3 系列 LLM,包括 8 和 70B 大小的预训练和指令
调
整的生成文本模型。
Meta
Llama
3
大模型
大模型
大模型的
研
究新方向:混合专家模型(MoE)
每个数据集可能完全不同,有来自文本的数据、图像的数据、语音的数据等,包含不同的模式,特征和标注之间的关系可能也大有不同,这不但增加了训练的难度,也提高了推理的成本,如何将大模型的训练难度和推理成本降低已经是各大
研
究机构和大厂都在攻克的任务
MoE
大模型
LLM
LLM微
调
经验&认知
换句话说,指令微
调
可以教他”用中文写文章“,但不会教他“写文章”本身。
LLM
大模型
ChatGPT
使用ChatGPT检查论文引用、提高
研
究深度
在学术
研
究和数据分析的过程中,提高论文质量是每位
研
究者的追求。
ChatGPT
案例
教程
Qwen7b微
调
保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源LLM模型的,同时支持多轮和单轮对话数据集的大模型高效微
调
范例。
Qwen7b
大模型
人工智能
人工智能大语言模型微
调
技术:SFT 、LoRA 、Freeze 监督微
调
方法
人工智能大语言模型微
调
技术:SFT 监督微
调
、LoRA 微
调
方法、P-tuning v2 微
调
方法、Freeze 监督微
调
方法 1.SFT 监督微
调
1.1 SFT 监督微
调
基本概念 SFT(Supervised
大模型
微调
ChatGLM
60分钟吃掉ChatGLM2-6b微
调
范例~
:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~ ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微
调
,
开源模型
RAG
RAG超参数
调
优食用指南
为了解决这些问题 LlamaIndex 推出了一个 ParamTuner 类,可以自动、高效地执行超参数
调
整。
rag
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100