首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
· 划重点!全网最全AI数字人工具合集!
· 大模型推理能力增强方法总结
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· Kimichat炒股:7个提示词案例
· LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
· 字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
· 我们需要的不是智能体,而是工作流(5000字保姆式教学)
· 神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
· 开源!数字人资源大集合!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
中国大模型融资暗战:罗曼蒂克的快速消亡
因为这意味着“更坚定、更快的决策速
度
”以及“更敢赌”。
大模型
暗战
在 WebUI 中使用 AnimateDiff 的一些问题和技巧
其实这两天也在轮流学习使用WebUI和ComfyUI,发现同等帧率设置下ComfyUI的生成速
度
要快很多而且占用资源少一些,但是不知道是不是心理原因总感觉ComfyUI的清晰
度
不如WebUI,所以相对来说
AnimateDiff
SD
Stable Diffusion
超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件
同时,因为内部生成流程做了优化,生成图片时的速
度
相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行)。
文生图
comfyui
开源
语音、视频转文字神器:开源whisper介绍
OpenAI的Whisper是一种基于深
度
学习的语音识别模型,它是一种通用的语音识别模型,可以用于语音识别、语音翻译和语言识别等任务。
人工智能
大模型
wisper
为什么说AI现在还不行!
也正因此最近写了几篇文章都在提应该以一种更加理性的态
度
来看待AI的进展,甚至设想了一种测试智能程
度
的方式:图灵测试2.0。
大模型
模型压缩:量化、剪枝和蒸馏
通过这3 个超参数,可以基本知晓BERT 的各模块大小,L 和H 决定了模型的宽
度
和深
度
,A 决定了模型Attention 的多样性。
BERT
语言模型
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
Transformers 的二次复杂
度
和弱长
度
外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案,但从以往的经验来看,它们在预训练效率和下游任务准确性方面表现不佳。
Meta
长文本
大模型
换脸
WebUI使用用InstantID,AI换脸完美版
InstantID 巧妙地避免了对文生图模型 UNet 部分的训练,仅通过训练一个轻量级的可插拔模块,实现了在推理过程中无需 test-time tuning,同时保持了文本控制的灵活性,确保了面部特征的高保真
度
。
换脸
小红书
大模型
性能超出预期!神秘的国产大模型 Kimi 开放 API
上下文长
度
甩了大厂几条街?
Kimi
Chat
大模型
API
比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
4️⃣设置图像尺寸 · 宽
度
和高
度
IP-Adapter
文生图
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
做的号称世界第一个AI自由职业者平台,NexusGPT基于LangChainAI的框架,使用GPT-3.5的API和Chroma(一个AI-native的开源嵌入式数据库),NexuseGPT平台上拥有八
百
多个具有特定技能的
开源模型
大模型
七问大模型幻觉|LLM Hallucination
· 如何
度
量幻觉?
大模型
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
堪称是「世界上速
度
最快的LLM」!
Groq
大模型
RAG
RAG与Long-Context之争—没必要争
但大模型随着输入长
度
越长,KV Cache所占资源就越多,成本也会剧增,这也是为什么有人持观点,未来也会有RAG。
RAG
Long-Context
大模型
数字人
揭秘数字人困境:代理商亏钱、直播屡被封、刘润也不用了
“24小时无限
度
加班,一次购买终身使用。”
数字人
<
...
6
7
8
9
10
11
12
13
14
15
...
>
1
2
4
5
6
7
8
9
100