首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· ChatGLM智谱清言
· 从第一性原理看大模型Agent技术
· Meta无限长文本大模型来了:参数仅7B,已开源
· StableDiffusion模型推荐系列(功能型)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 国内法律类大模型介绍
· 阿里的AI一键换衣(AnyDoor)工具来了
· prompt必须知道的26条军规
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ComfyUI
StableDiffusion升级版SDXL:一键运行包ComfyUI和18G模型分享!
当然也支持
lora
,Hypernetworks,Embeddings/Textual inversion 官方提供了集成包,支持CPU和GPU,惬意的很。
comfyui
sdxl
文生图
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
它由一个视觉编码器、一个可学习采样器模块和一个经
LoRA
调优后的大语言模型组成。
MoE大模型
APPa
解码二维码:揭秘我的漂亮二维码生成秘诀!
· 3、如果需要人像,使用某些
Lora
或者插件进行优化。
图像文字
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
IFT(指令微调)的影响 在上面,我们通过使用
LoRA
使用 Vicuna 指令集进行训练展示了 IFT 的影响。
开源模型
LLM
2023年LLM如何入门?请看这篇综述!
2.7 Low-Rank Adaptation(
LoRA
)
LoRA
是通过将预训练模型分解成低秩矩阵来进行微调,以提高模型的效率和泛化能力。
大模型
ComfyUI
ComfyUI官方使用手册【官网直译+关键补充】
7.Load
LoRA
Load
LoRA
节点可用于加载
LoRA
。
文生图
图生图
comfyui
LLM
一文探秘LLM应用开发-Prompt(相关概念)
1)llama Stanford Alpaca : 模版: 1 { 2 3 "description": "Template used by Alpaca-
LoRA
prompt
大模型
Stable Diffusion
Stable Diffusion高级教程 - 图生图(img2img)模式
同时,我们还可以重叠各种微调模型,下面是使用了 VAE、
Lora
和 HyperNetwork 后的效果: 这就是微调模型的作用,不过注意,微调后手部后两张还是会有问题。
Stable
Diffusion
图生图
开源
Falcon 180B 开源影响了谁?
在蒋磊看来,Falcon 180B对于中国公司影响有限,Falcon 180B主要是在英语、德语、西班牙语和法语上进行训练的,如果要扩展其中文能力,还需要做大量的工作,即使使用
LoRA
或者QLoRA等方式
大模型
工具
免费文生图工具StableDiffusion喂饭级使用教程
stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt 3、下载本文需要的模型文件 主要用于真人风格图像绘制(都可以下来试试,推荐
lora
文生图
SD
Stable Diffusion
Stable Diffusion教程:提示词
需要注意的是除了使用提示词生成风格图片,大家还喜欢通过各种风格模型(包括大模型和
Lora
模型)来生成指定风格的图片,这些模型一般都经过特定风格图片的训练,比如Anything比较擅长二次元风格、RealisticVision
提示词
SD
绘画
Deepseek-V2技术报告解读!全网最细!
MLA从
LoRA
的成功借鉴经验,实现了比GQA这种通过复制参数压缩矩阵尺度的方法更为节省的低秩推理,同时对模型的效果损耗不大。
Deepseek-V2
大模型
大模型
大模型压缩首篇综述来啦~
它引入了一种独特的参数重要性标准,使用了来自Low-Rank Adaption(
LoRA
)的值和梯度。
大模型
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
结果是,与原始模型相比,参数数量显著减少(在某些情况下,仅为原始权重的15-20%;2021年微软提出的
LORA
,斯坦福提出的 Prefix-Tuning,谷歌提出的 Prompt Tuning,2022
大模型
微调
Agent
Agent四大范式 | 综述:全面理解Agent工作原理
从头开始训练一个模型成本巨大,所以一般采用PEFT的技术来进行微调,比如:
LoRA
、QLoRA、P-tuning等。
Agent
大语言模型
<
...
4
5
6
7
8
9
10
11
12
13
>
1
2
4
5
6
7
8
9
100