首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
图片拖拽神器DragGAN介绍及官方安装文档说明
拖放图像编辑是一项功能强大的技术,它涉及
训
练
生成模型来根据用户提供的指令转换图像。
开源
微调
Qwen7b微调保姆级教程
我们构造了一个修改大模型自我认知的3轮对话的玩具数据集,使用QLoRA算法,只需要5分钟的
训
练
时间,就可以完成微调,并成功修改了LLM模型的自我认知(以Qwen7b-Chat为例)。
Qwen7b
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在目标数据集上
训
练
目标模型时,将从头
训
练
到输出层,其余层的参数都基于源模型的参数微调得到。
大模型
微调
4秒惊艳!Stable Cascade AI绘画神器,设计师和普通用户的无限创意新选择
任何人都可以在Stability的GitHub页面上找到用于微调、ControlNet和LoRA
训
练
的脚本,进一步挖掘这个全新架构的潜力。
文生图
绘画
ChatGPT
如何使用ChatGPT进行写作
同所有工具一样,ChatGPT 需要明确的指导,通过与 ChatGPT 的对话,不断
训
练
ChatGPT,便能使ChatGPT了解你的风格。
ChatGPT
写作
大模型
大模型的研究新方向:混合专家模型(MoE)
为了实现大模型的高效
训
练
和推理,有的是从模型底层下手,比如直接改变底层模型架构,将原来的Transformer架构改成近期新出的基于状态空间模型(SSM)的mamba架构;有的是在预
训
练
微调方法上下手,
MoE
大模型
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
此外,由于反馈序列中有许多常用词,为了避免模型在
训
练
过程中依赖于这些词,CoH 在
训
练
期间随机屏蔽了 0%-5% 的历史 token。
agent
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
这表明,通过AlpacaEval的评估,使⽤NEFT进⾏
训
练
显著提⾼了对话能⼒和回答质量。
NEFTune
大语言模型
Prompt
图像作为prompt#IP-Adapter
IP-Adapter是图像提示适配器,用于预
训
练
的文本到图像扩散模型,以实现使用图像提示生成图像的能力。
prompt
IP-Adapter
文生图
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
此前,DataLearner曾经从理论上给出了大模型显存需求的估算逻辑,详细说明了大模型在预
训
练
阶段、微调阶段和推理阶段所需的显存资源估计(参考:需要多少GPU显存才能运行预
训
练
大语言模型?
大模型
大模型
万字长文,AI大模型的应用实践总结
具体的模型
训
练
(预
训
练
)方法可参考Hugingface Transformers的样例,SFT(指令精调)方法可参考Alpaca的
训
练
代码。
大模型
LLM
更强的小型LLM:Zephyr-7B
该模型由 Hugging Face 创建,实际上是在公共数据集上
训
练
的 Mistral-7B 的微调版本,但也通过知识蒸馏技术进行了优化。
Zephyr-7B
大语言模型
开源
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
这篇文章我们简单介绍一下Kandinsky-3的模型结构、
训
练
策略以及模型生成效果。
Kandinsky-3
文生图
开源模型
Stable Diffusion
Stable Diffusion使用Roop插件一键换脸教程
训
练
模型也可以实现上面的需求,但是需要的图比较多,很麻烦。
StableDiffusion
Roop插件
AI换脸
大模型
OCR的终极解法——传统算法VS多模态大模型
OCR 后处理一直是麻烦的事情,如果用传统的算法会有
训
练
需要准备大量的数据,迭代更新效果差的问题,不过速度确实快。
OCR
大模型
文字识别
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100