首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· LLM大模型推理输出生成方式总结
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 你的下一个浏览器,可以是豆包电脑版!
· 开源本地化部署的「妙鸭相机」,真的要革了「海马体」们的命了?|手把手教你搭建「妙鸭相机」
· 通义千问
· 硬核解读Stable Diffusion(系列一)
· 阿里巴巴语音实验室发布开源语音处理框架ClearerVoice-Studio,支持语音增强、分离、目标说话人提取
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
在 WebUI 中使用 AnimateDiff 的一些问题和技巧
中文翻译
具
体就是设置里显示所有选项,然后搜索“补齐正向”勾选即可,如果你也遇到同样的问题可以尝试下,这也反映了认真看使用文档的必要性~ 2、再就是最新的 AnimateDiff
AnimateDiff
SD
开源
爆火「视频版ControlNet」开源了!靠提示词精准换画风,全华人团队出品
可跟踪水和烟雾,跨帧一致性更强 CoDeF是英文“the content deformation field”的缩
写
,即
作
者在此提出了一种叫做内容形变场的新方法,来用于视频风格迁移任务。
ControlNet
Prompt
自动优化Prompt:Automatic Prompt Engineering的3种方法
第一步:生成prompt candidates 生成prompt的
工
作
也交给了无所不能的LLM,
作
者介绍了2大类生成方式: ·
prompt
大模型
换脸
10秒换脸,一张图片够了!SD Roop插件教程
(1)在插件图片
工
作
区上传你要换的脸(2)脸的序号,举例,如一张图中有4张脸,你要换掉第3张脸,则在此处输入数字2。
AI换脸
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
该模型
具
有8k的上下文窗口,相比其他
具
有更长窗口的模型,我们在多个长文本任务的评测中胜出。
大模型
Ziya
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
简单来说,RAG的
工
作
就是
作
为一个信息的搜集者和整合者,帮助LLM更好地理解和回应提问。
OCR
RAG
开源
教程
SD入门教程四:图生图基础用法
当我们想利用原图进行操
作
,但是想保留某些特征,让原图和生成图保持相似度时,我们就需要进行提示词编
写
,此时反推区域就能帮助我们提取原图的特征提示词,例如: · CLIP反推 · 
SD
入门
图生图
RAG
谈谈RAG存在的一些问题和避免方式
下面我们来看看会有哪些方面会引起RAG的失败(下面的举例并不完全,还有一些本次来不及
写
了)。
RAG
大模型
大模型
真格基金大模型能力测试问题集---基础篇
作
为早期投资人,我们经常需要试用和评估新发布的对话式 AI 产品,其中比较常用的方式是通过一些 Prompts,将它们与标志性的 ChatGPT 的输出结果进行直观的横向对比。
大模型
训练
中文
ChatGLM
chatglm3基础模型多轮对话微调
微调效果
作
为没有经过人类意图对齐的模型,ChatGLM3-6B-Base 不能用于多轮对话。
ChatGLM
微调
Stable Diffusion
Stable Diffusion 喂饭教程来啦!价值上万的模特AI换装方法
Inpaint Anything 我们会引入一个新的插件 inpaint-anything 用来替代语义分割插件,在前面 ControlNet 中我们讲过 语义分割 的
作
用是将图片中的物体分类进行语义的划分
Stable
Diffusion
文生图
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
为了进一步提高 MEGALODON 在大规模长上下文预训练方面的能力和效率,
作
者提出了多种技术组件。
Meta
长文本
大模型
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
技术合
作
与生态支持 在这里插入图片描述 通用语言模型的魅力,可不止于说话。
Qwen1.5
开源模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
COT能力,也是一种奇妙的能力,大模型涌现出来的COT能力,让模型可以解决复杂问题,而且
具
有了可解释性。
大模型
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
优化chunking:从最开始的512固定长度切分,到后面的句切分,再到后面的NLTK和SpaCy,
具
体可参见我之前
写
的
RAG
检索增强
<
...
69
70
71
72
73
74
75
76
77
78
...
>
1
2
4
5
6
7
8
9
100