首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· LLM大模型推理输出生成方式总结
· 50+ Midjourney 美食相关提示词,看了别留口水哦
· SD入门教程六:ControlNet基础入门
· 个人从零预训练1B LLM心路历程
· ai出图软件Fooocus
· AI绘画Stable-Diffusion风格化实战
· GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
· 十大开源语音识别项目
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
角色,背景,任务,产出内容与形式:如何写出优雅的prompt? - 通用的万能框架
但是在NLP领域里,prompt好像并没有
特
别权威的官方定义,可以理解为提示,也可以是线索、指令。
提示词
prompt
Prompt
Prompt小技巧(18):万能Prompt
这好
比
是初稿,但
比
你随便写的要专业多了。
prompt
大模型
Stable Diffusion
Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
learning rate: 训练Lora的学习率,默认为1e-4 · rank Lora: 权重的
特
征长度
SD
文生图
写真照
SDXL
分享使用SDXL 1.0模型的一些技巧和心得
比
如说,我使用这个恶魔天使的Lora。
文生图
换脸
AI换脸工具:facefusion使用心得
通过一系列的图像处理技术,如锐化、去噪点、色彩校正等来改善脸部细节,使面部
特
征更加明显和吸引人。
FaceFusion
文生图
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
冻结了大部分预训练参数,仅添加任务层,语言模型层参数不变 适配器微调 (Adapter-tunning) Adapter在预训练模型每层中插入用于下游任务的参数,在微调时将模型主体冻结,仅训练
特
定于任务的参数
训练
微调
Stable Diffusion
Stable Diffusion|提示词高阶用法(二)双人同图
基础
比
率可以指定每个区域的基础提示词的权重。
文生图
阿里
阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
目前思考得还
比
较少。
通义
文生视频
ChatGPT
你是否发现ChatGPT甚至不能按字数要求回复问题?有人做了评测并讨论了可能的原因
先前的工作有通过在
特
定任务上做微调如controlled paraphrase generation受控改述生成或设置受限解码策略如look-back decoding strategy回顾式解码策略
大模型
控制
大模型
【全文翻译】微软166页论文解读 GPT-4V:多模态大模型的黎明
我们将指出
特
定样本不符合此标准的情况,例如故意使用来自
特
定视觉的样本 - 语言数据集。
多模态大模型
GPT-4V
文生图
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
为了使这一点更清楚,请考虑一个简单的现实世界类
比
:当提出问题“我应该用刀还是勺子吃饭?”
训练
Prompt
不用再羡慕Prompt大神了!看了这篇文章,你只需10秒钟,就能拥有自己想要的专业级Prompt!
2:运用SEO技巧提升笔记在搜索排名中的可见性- 技能 3:融合创新元素,如短视频、故事化叙述等多元形式展现内容 Examples : - 输出示例 1:针对一款美妆新品,创作一篇包含使用前后对
比
照片
prompt
写作
Prompt
Prompt及AI提问实践
比
如扬声器或者电池续航之类的。
Prompt
大模型
提问
开源
腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
很有意思,很
特
别的模型。
sora
视频生成
微调
一文讲明白什么是预训练、微调和上下文学习
比
如说在包含数百万本书、文章和网站的数据集上预训练像 GPT-3 这样的语言模型。
大模型
训练
<
...
26
27
28
29
30
31
32
33
34
35
...
>
1
2
4
5
6
7
8
9
100