首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Coze多智能体(Multi-Agents)模式体验!
· ComfyUI官方使用手册【官网直译+关键补充】
· 6个最佳开源TTS引擎
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 用上这10条神指令(prompt),让ChatGPT快速写出优质高分科研论文
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
SD入门教程一:Stable Diffusion 基础(技术篇)
这个方法也被称为 Classifier Free Guidance(无分类引
导
法)。
Stable
Diffusion
文生图
ChatGPT
ChatGPT写论文最强指令!
如果可能,请提供引用文献或支持每个观点和结论的具体例子或支持
数
据,以利于我理解和引用。
ChatGPT
指令
大模型
大模型文本生成——解码策略(Top-k & Top-p & Temperature)
这种方法简单高效,但是可能会
导
致生成的文本过于单调和重复。
大模型
这个方法可以让AI写出的文章完全去掉GPT味儿!
准确性问题:简洁的提示可能让ChatGPT大量的从训练
数
据中按概率提取文字,
导
致输出不精确,不稳定。
ChatGPT
写作
如何用大语言模型构建一个知识问答系统
、不能支持大规模
数
据量等问题。
知识库
大模型
AI Agent:大模型与场景间的价值之桥,但不适合当纯技术看
这图能说明AI Agent的一些关键点,但也有相当的误
导
性。
大模型
ChatGPT
26个超级技巧,让你的ChatGPT直接起飞
案例:不要说“请帮我分析这份
数
据”,而是直接说“分析这份
数
据”。
ChatGPT
人工智能
6个AI音乐软件推荐,让你学会人工智能AI作曲
下面,让我们来看看市场上最好的AI音乐生成器: 1.Ecrett Music Ecrett Music可以让任何人通过
数
百小时的现有歌曲训练生成音乐片段。
训练
音乐
Agent
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
这意味着这些机器人不会停在新
数
据
导
致的“死胡同”,而是可以从错误中“学习”并调整其一系列任务。
RPA
自动化
混合专家模型 (MoE) 详解
这
导
致了批量大小的不均匀分配和资源利用效率不高的问题。
MoE大模型
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
解决方案初探 开源项目 Akcio(https://github.com/zc277584121/akcio) 就是一套完整的 RAG 问答系统,用户
导
入各类私有专业知识,
Prompt
大语言模型
RAG
大模型
关于大模型驱动的AI智能体Agent的一些思考
P (plan) 计划:包括
数
据收集,方针和目标的确定,以及活动规划的制定。
大模型
大模型
国内AI大模型已近80个,哪个最有前途?
字节有最多的多模态中文私有
数
据。
大模型
Stable Diffusion
免配置、免翻墙,Stable Diffusion平替来了!
整合模型:获取可用于制作图像的模型(包括由Leonardo团队和社区制作的模型) 4.训练和
数
据集:你可以训练模型,这次这个功能先不讲,感兴趣的同学可以去官网了解,据说是LeonardoAI
LeonardoAI
文生图
Stable Diffusion
张嘴就能生图?这已经不是科技,这是魔法!(Stable Diffusion进阶篇:SDXL-Turbo)
Turbo具备了最新的快速扩散蒸馏技术(Adversarial Diffusion Distillation),这个技术可以在保持图像生成质量的同时大幅度降低采样步
数
(生成速度) 比较明显的比对就是
SDXL-Turbo
文生图
<
...
31
32
33
34
35
36
37
38
39
40
...
>
1
2
4
5
6
7
8
9
100