首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
GPU
性能(数据表)快速参考
这篇文章为流行的
GPU
的性能提供了一个简明的参考,包括NVIDIA和华为海思的主流型号,水平有限,译文整理,供参考学习。
GPU
算力
微软
微软打破Decoder-Only架构!大幅降低
GPU
内存需求,网友:把Llama3 70B弄20GB
GPU
上运行
YOCO仅缓存一次键值对,可大幅降低
GPU
内存需求,且保留全局注意力能力。
Decoder-Decoder
YOCO
架构
盘点来自工业界的
GPU
共享方案
进年来工业界一直孜孜不倦地寻求提升
GPU
利用率的方案,能被更多用户理解和使用的
GPU
共享走进工程师的视野中。
大模型
AI国力战争:
GPU
是明线,HBM是暗线
· 虽然
GPU
龙头英伟达股价一飞冲天,但搅局者的动力也有增无减,AMD作为二供被寄予了厚望,谷歌自研TPU也被不少人看好;而国产
GPU
选手华为昇腾、寒武纪、海光、沐熙、壁韧等也在尝试形成自己的闭环
GPU
HBM
大模型
Pytorch安装(保姆级教学 真·满血·
GPU
版)CUDA更新?torch版本?一文全搞定!
输入: >>> import torch >>> print(torch.cuda.is_available()) 如果输出是True,那么恭喜你就是
GPU
训练
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
2024GTC大会上,黄仁勋右手B200,左手H100,理所当然地有了新人忘旧人:“我们需要更大的
GPU
,如果不能更大,就把更多
GPU
组合在一起,变成更大的虚拟
GPU
。”
芯片拼接
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
2024GTC大会上,黄仁勋右手B200,左手H100,理所当然地有了新人忘旧人:“我们需要更大的
GPU
,如果不能更大,就把更多
GPU
组合在一起,变成更大的虚拟
GPU
。”
芯片拼接技术
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达
GPU
10倍
Groq突然爆火,背后最大的功臣不是
GPU
,而是自研的LPU——语言处理单元。
Groq
大模型
实测:本地跑llama3:70B需要什么配置
前几天发布的开源大语言模型Llama 3 70B的能力通过测试结果的展示已经达到了一个全新的高度,甚至可以与Claude 3 Sonnet和Gemini 1.5 Pro等一众顶级模型相媲美,甚至在某些方面已经超过了去年发布的两款GPT-4。这一突破使得Llama 3一举成为当前顶流的大语言模型之一。
llama
GPU内存
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
o 硬件环境 我这里使用了阿里云的
GPU
服务器: o • 12核(vCPU) 92 GiB o o •
ChatGLM2-6B
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
服务器准备 不想折腾mac了,正好腾讯云有活动,
GPU
服务器,8核32G内存16G显存,60块钱半个月,刚好买来试试,活动链接在结尾处。
ChatGLM2-6B
大模型
大模型压缩首篇综述来啦~
此外,为了有效管理操作,部署该模型进行推理至少需要五个A100
GPU
,每个
GPU
配备80GB内存。
大模型
OpenAI
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
而各方巨头改变训练范式后,英伟达
GPU
的垄断地位或许也要打破了。
Scaling
Law
AI大模型
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
· f 的forward计算:把输入X拷贝到两块
GPU
上,每块
GPU
即可独立做forward计算。
开源模型
换脸
AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
因为谷歌Colab平台升级的缘故,大概在12月初,在线的换脸脚本就无法调用
GPU
了。
FaceFusion
Roop
AI换脸
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100