首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 本地部署Manus+DeepSeek保姆级教程!
· MCP服务介绍及应用场景报告-来自Manus
· API.box
· Math.now
· LiblibAI
· AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
· GenColor.ai
· Slea.ai
· 大模型应用发展的方向|代理 Agent 的兴起及其未来(下)
· llm-action:让天下没有难学的大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
腾讯开源混元AI绘画大模型
不过,混元大模型的门槛不低,目前必须是NVIDIA显卡,最低配置是11G显
存
,推荐32G显
存
。
腾讯
混元
文生图
Stable Diffusion
Stable Diffusion | SD的老舅ComfyUI来了,节点式工作流,分部控制出图
优点: 1.上限高,更适合复杂长线的大型工作 2模块化工作流 3.可视化 4.启动速度快、运行速度快 5.对硬件无要求,CPU可运行 6.可排队运行任务 7.工作流只需搭建一次可直接保
存
生成式AI
ComfyUI
SD的老舅ComfyUI来了,节点式工作流,分部控制出图
优点: 1.上限高,更适合复杂长线的大型工作 2模块化工作流 3.可视化 4.启动速度快、运行速度快 5.对硬件无要求,CPU可运行 6.可排队运行任务 7.工作流只需搭建一次可直接保
存
文生图
comfyui
WSL2安装(详细过程)
运行直接集成到Windows桌面的 GNU/Linux 图形应用程序 将
GPU
加速用于机器学习、数据科学场景等 安装WSL2步骤 1.为Linux启用子系统 检查windows功能是否开启了 适用于
虚拟化
docker
大模型
中文通用大模型最全汇总
中英标识符的预训练与人类偏好对齐训练;基座模型的上下文长度扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练;基于 Multi-Query Attention 技术实现更高效的推理速度和更低的显
存
占用
大模型
开源模型
大模型
国产AI大模型哪家强?十大维度横评四款主流大模型!
对于国
内
用户来说,目前不少大模型产品已经开放
内
测。
开源模型
ChatGPT
如何使用ChatGPT进行写作
ChatGPT以其速度和效率为
内
容创作的格局注入了新的活力。
ChatGPT
写作
大模型
中国大模型「顶流群聊」笔记
百川智能创始人&CEO 王小川分享他去硅谷和朋友聊到,英伟达一年的
GPU
出货量在 100 万颗,但 OpenAI 说要设计 1000 万颗
GPU
连在一块的超算。
大语言模型
ComfyUI
免费的文本生成视频解决方案:AnimateDiff下载-可用于StableDiffusion的webui以及ComfyUI
尽管 AnimateDiff 提供了强大的功能,但在使用过程中也可能会遇到一些问题,如提示词长度限制、
GPU
崩溃风险以及分辨率限制等。
视频生成
文生视频
数字人
GitHub本月榜单:一个数字人技术的“非官方”实现
故事化营销:通过AnimateAnyone,商家可以制作故事化的营销
内
容,如品牌历史、生产流程、产品背后的故事等,以增加品牌的吸引力和认同感。
AnimateAnyone
人工智能
再也不用担心 AI 图片脸崩手崩了
这也是目前文生图 AI 工具普遍
存
在的问题。
ADetailer
安装
文生图
Prompt
Prompt全攻略(四):强力Prompt带来出色的AI应用
这是基于对ChatGPT机制的透彻解析,以及对用户痛点的精准锁定,专为广大AI产品开发者与
内
容创作者设计的Prompt优化指南。
prompt
一人搞定30万商品分类:AI落地实践故事!
另外,还有限制条件: · 商品名主要是中文 · 只能在
内
网使用 · 没有性能强大(更别提
GPU
)的服务器 思路 首先想到的是微调一个4bit量化的中文LLM,来实现输入商品名
embedding
大数据
分类
大模型
大模型量化:什么是模型量化,如何进行模型量化
通过深度学习,我们可以得到用于处理各种任务的高性能模型,这些模型大多都很复杂、一般只适合在
GPU
上进行推理,并不适合在板端进行推理,然而在实际应用时,很多场景都需要将模型部署到板端。
大模型
AI绘画:InstantID Win11本地安装记录!
0.准备工作 准备一张3090或者4090或者显
存
24+的N卡。
InstantID
Win11
安装
<
...
12
13
14
15
16
17
18
19
20
21
...
>
1
2
4
5
6
7
8
9
100