首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
换脸
AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
因为谷歌Colab平台升级的缘故,大概在12月初,在线的换脸脚本就无法调用
GPU
了。
FaceFusion
Roop
AI换脸
打磨 8 个月、功能全面升级,Milvus 2.3.0 文字发布会现在开始!
架构升级 §
GPU
支持 § 早在 Milvus 1.x 版本,我们就曾经支持过
GPU
,但在 2.x 版本中由于切换成了分布式架构
大语言模型
如何使用 Megatron-LM 训练语言模型
但它针对
GPU
上的训练进行了高度优化。
开源模型
SDXL
【分享】SDXL模型最佳拍档!COMFY UI上手指南
理论上,SDXL 1.0 应该在具有 8GB VRAM 的
GPU
上有效工作。
大模型
模型压缩:量化、剪枝和蒸馏
导读:近年来,BERT 系列模型成了应用最广的预训练语言模型,随着模型性能的提升,其参数规模不断增大,推理速度也急剧提升,导致原始模型必须部署在高端的
GPU
显卡上,甚至部分模型需要多块显卡才能正常运行
BERT
语言模型
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署
下面2个步骤是不管你部署CPU还是
GPU
版本都需要做的。
提示词
prompt
chatgpt
开源
开源版妙鸭相机来了,无限出个人写真图(阿里达摩院出品)
8+ o o • 操作系统版本: Ubuntu 20.04, CentOS 7.9 o o •
GPU
妙鸭相机
大模型
国内AI大模型已近80个,哪个最有前途?
字节有很多
GPU
资源。
大模型
大模型
大模型训练为什么用A100不用4090
大模型训练为什么不能用 4090
GPU
训练性能和成本对比 LambdaLabs 有个很好的
GPU
单机训练性能和成本对比,在此摘录如下。
大模型
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
PyTorch提供了对NVIDIA CUDA非常好的支持,可以将模型和数据高效加载到
GPU
显存中,利用
GPU
并行计算带来的加速。
开源模型
大模型
语言大模型100K上下文窗口的秘诀
[技巧3] Flash Attention有效地实现了
GPU
的注意力层。
大模型
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
一、大模型训练稳定性方面 单机训练不起来,环境配置问题:
GPU
的CUDA驱动需和深度学习框架版本拉齐,否则模型跑不起来如
GPU
的CUDA verison是11.4,那就选择pytorch的版本为1.12.1
大模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
对于推理,在
GPU
资源不富裕的情况,如何最小化的利用内存,提升推理效率,也是可以讨论的内容。
大模型
人工智能
ComfyUI
无需编码,轻松提升图像品质:探索ComfyUI的图像增强功能
支持
GPU
和CPU:即使在VRAM很少的系统上,用户也可以使用超过3GB VRAM的
GPU
的功率,或者选择CPU处理。
文生图
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
如果您正在使用Google Colab来运行代码,请按以下步骤操作:在笔记本中转到“运行时”>“更改运行时类型”>“硬件加速器”>“
GPU
”>“
GPU
类型”>“T4”。
开源模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100