首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内外开源大语言模型一览表
· 盘点数据安全合规方向的热门证书【快来了解一下】
· 一文汇总市面上所有prompts提示词框架
· 硬核解读Stable Diffusion(系列一)
· 火山写作:一款助力写作能力提升的AI助手
· 掌握这10个AI 工具用1小时完成别人1周的工作
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· MCP服务介绍及应用场景报告-来自Manus
· whisper-live:OpenAI Whisper模型的近实时实现
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Sora
OpenAI视频模型Sora的推理生成成本多高?
LLM)是 Decoder-Only Transformer 架构,通过 Auto Regression 的方式预测下一个 token,是一个完全的 Memory bound 场景,一般实际推理时的
GPU
Sora
推理
算力
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
面对与 OpenAI 的差距,王小川坦言,在理想方面我们和 OpenAI 确实存在差距,OpenAI 的目标是探索智能的天花板,他们甚至希望设计出将 1000 万颗
GPU
连在一块的技术。
Baichuan2
百川
开源
大模型
通俗解读大模型微调(Fine Tuning)
论文中举的例子,65B的LLaMA 的微调要780GB的
GPU
内存;而用了QLoRA之后,只需要48GB。
大模型
微调
Stable Diffusion
SD入门教程一:Stable Diffusion 基础(技术篇)
使用 VAE 后,即使消费级显卡
GPU
也能以相对较快的速度,完成降噪运算。
Stable
Diffusion
文生图
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
Codeshell基于Megatron-LM,在Attention算子优化、数据预处理、数据加载、日志输出、状态监控、分布式训练管理等方面进行了深度定制,支持Flash Attention2加速,训练吞吐量达到了每
GPU
开源模型
AI编程
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
Xinference 不仅支持在CPU上进行推理,而且在
GPU
繁忙时,可以将部分计算任务交给 CPU 来完成,从而提高系统的吞吐率。
开源模型
ComfyUI
ComfyUI,你开启XL钥匙打开了新世界
完全支持 SD1.x、SD2.x 和 SDXL 异步队列系统 仅重新执行在执行之间更改的工作流部分(节省计算资源) 甚至可以使用cpu进行生图(很慢),可以在小于3G显存的
GPU
上运行 可以加载
ComfyUI
大模型
开源
最新最全的开源中文大语言模型列表
地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 简介:中文LLaMA&Alpaca大语言模型+本地CPU/
GPU
大模型
混合专家模型 (MoE) 详解
这种低效主要是因为
GPU
并不是为处理这种结构而设计的,而且由于设备间需要传递数据,网络带宽常常成为性能瓶颈。
MoE大模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
其中 70 亿参数的模型用于
GPU
和 TPU 上的高效部署和开发,20 亿参数的模型用于 CPU 和端侧应用程序。
开源模型
Gemma
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
基于基础模型训练的SFT模型通常只需要1-100个
GPU
训练几天即可。
大模型
大模型
大模型时代 AI 技术在金融行业的创新应用
该架构的底层是算力资源层,包括各类高性能异构
GPU
资源、高性能存储资源和高性能网络资源。
大模型
金融
Docker介绍及常用命令大全
sklearn RUN /home/miniconda3/bin/pip install echarts RUN /home/miniconda3/bin/pip install tensorflow-
gpu
Docker
容器
大模型
总结!大模型微调(Tuning)的常见方法
Parameter-Efficient Fine-Tuning)是hugging face开源的一个参数高效微调大模型的工具,里面集成了4种微调大模型的方法,可以通过微调少量参数就达到接近微调全量参数的效果,使得在
GPU
微调
大模型
清华
震撼科技界:清华大学与智谱AI联手,引领中文长文智能写作新纪元!
硬件配置:使用8块H800 80G
GPU
,结合DeepSpeed+ZeRO3+CPU offloading技术。
写作
长文本
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100