首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
清华
图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
LCM的训练过程也很高效,只需要大约32个A100
GPU
的训练时间,就可以完成对SD模型的蒸馏。
LCM/LCM-LoRA
文生图
大模型
最佳开源文生图大模型可图:安装与批量出图的完整教程
其中要注意的是torch还有torchvision一定要用cuda的版本,也就是可以
GPU
推理的版本,也就是后面带着cu+数字这种,torch安装网上教程很多,我这里简单列几个必要的命令给大家参考。
可图
kolors
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
你怎么知道我们需要
GPU
?
Llama
3
大语言模型
数据库
百万token上下文窗口也杀不死向量数据库?CPU笑了
CPU,向量数据库的好搭档 向量数据库搭配CPU,其实不只是腾讯云一家的选择,而是整个行业现阶段的主流共识: 只有面临海量高并发需求时,使用
GPU
查询向量数据库才更划算。
向量数据库
大模型
cpu
ComfyUI
Comfyui工作流管理插件,再也不用保存本地了!
4.一键分享并部署您的工作流程到云端,其他人无需设置即可使用云
GPU
在浏览器中轻松运行 出自:https://mp.weixin.qq.com/s/LSSlN5YYzLc6eLC90ht_nQ
Comfyui
工作流
插件
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
; | |-------------------------------+----------------------+----------------------+ |
GPU
大模型
Stable Diffusion
Stable Diffusion | SD阿里云3步部署,全程五分钟,免费试用三个月,电脑无需升级配置
注册好了登录图像变成这样 2、点击免费试用,选中函数计算FC,这一步是布置代码运行的算法云环境服务,对AIGC进行
GPU
推理计算。
下载
科大讯飞
哈工大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
模型扩充了新版中文词表,开源了中文LLaMA-2和Alpaca-2大模型 开源了预训练脚本、指令精调脚本,用户可根据需要进一步训练模型 使用个人电脑的CPU/
GPU
训练
ComfyUI
AI绘画:两组赛博咒语和ComfyUI使用方法!
如果你有显卡
GPU
,那么就双击 run_nvidia_gpu.bat 如果你没有显卡,就用双击run_cpu.bat 启动成功后,会自动调用浏览器
文生图
ComfyUI
ComfyUI安装及生成第一张图
将模型放入文件夹中 ComfyUI_windows_portable\ComfyUI\models\checkpoints 第4步:启动 ComfyUI 如果您有 Nvidia
GPU
:双击run_nvidia_gpu.bat
ComfyUI
文生图
语音
「语音转换新速度」— 探秘Whisper JAX的70倍速提升
并行处理 利用JAX的pmap功能,Whisper JAX能够在多个
GPU
或TPU设备上并行处理数据。
Whisper
语音识别
微调
Qwen7b微调保姆级教程
ensp; ) 四,保存模型 为减少
GPU
Qwen7b
大模型
开源
国内外开源大语言模型一览表
BayLing can be effortlessly deployed on a consumer-grade
GPU
with 16GB of memory, and assists users with
大模型
使用BELLE项目部署bloomz模型(专业程序员精简版)
7b1-mt Cpu:内存约占用27G Gpu:int8模式下,显存约占用9G左右 注:直接使用原始模型,则model_name_or_path 和ckpt_path均指定原始模型路径即可
gpu
belle
训练
大模型
工具
TTS它又来了!OpenVoice:一款借鉴于TTS实现的强大的AI语音克隆工具!
BaseSpeakerTTS, ToneColorConverter ckpt_converter = 'checkpoints/converter' # 使用
GPU
tts
文本转语音
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100