首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· GitHub上很火的RPA框架:一款用于验收测试和 RPA 的通用自动化框架robotframework
· 有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
· AI声音克隆 | 最全最简教程(权威版)
· Stable Diffusion|提示词高阶用法(二)双人同图
· DeepSeek V3刷屏,550万元2000张卡做出的开源模型,和OpenAI几亿烧出来的一样好
· 80多个罕见的论文prompt,让你起飞!
· 14.4K Star,一款漂亮、快速、现代化的开源免费UI组件库
· 达摩院SPACE对话大模型:知识注入与知识利用
· 大模型微调应用实践,没那么简单,看看曾经踩过的坑
· 【ComfyUI】爽玩必备,6大插件汇总推荐 !
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
无显卡+纯本地跑Qwen1.5版模型!0基础闭眼部署指南!适用绝大部分开源模型!llama2+Mistral+Zephyr通杀!
安装
Nvidia
容器工具包。
Qwen1.5
开源模型
Stable Diffusion
Stable Diffusion 入门教程开篇
使用门槛 本地部署电脑的硬件配置需满足: · Widows系统:内存8G以上,
Nvidia
(英伟达)显卡,显卡内存4G以上,硬盘空间500G以上。
Stable
Diffusion
文生图
入门教程
开源
国内外开源大语言模型一览表
instruction-following Chinese LLaMA/Pythia/GLM model tuning methods which can be trained on a single
Nvidia
大模型
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
、 “做个自我介绍”、 “你好” Llama3 会用中文回答 : “我是AI在手” (如下图) 1、环境安装 #
nvidia
显卡 显存16G
Llama3
对话问答模型
大模型
【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
所有这些实验都是在 8 块
NVIDIA
A100-40GB GPU 上进行的,实验细节请参考我们的论文。
训练
大模型
belle
ComfyUI
StableDiffusion升级版SDXL:一键运行包ComfyUI和18G模型分享!
XSDL软硬件要求: 操作系统 Win10/WIN11/Linux 内测 16GB RAM 显卡
Nvidia
RTX20+ ,AMD (Linux) 显存 8GB+ RAM 这是官方给出的说明
comfyui
sdxl
文生图
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
监听显卡,每 1 秒刷新一次:watch -n -1 -d
nvidia
-smi 四、结论 模型推理服务部署GPU配置推荐如下: &ensp
开源模型
工具
【AI绘图工具】太爆炸了,AI出图速度100fps(每秒100张图片),比LCM、SDXL Turbo更快,目前No.1
· TensorRT是
NVIDIA
提供的一个优化工具包,用于提高深度学习应用的吞吐量和效率。
StreamDiffusion
文生图
大模型
大模型实践总结
TPU + XLA + TensorFlow/JAX :由Google主导,由于TPU和自家云平台GCP深度绑定 GPU + PyTorch + Megatron-LM + DeepSpeed :由
NVIDIA
大模型
训练
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
2、Llama 3模型已经得到了AMD、AWS、Dell、Intel、
NVIDIA
和高通提供的硬件平台的支持,并很快在AWS、Databricks、Google Cloud、Hugging
Llama
3
大语言模型
大模型
大模型训练为什么用A100不用4090
中间的 Logic Die 最大颗,看上去最高贵 :) 那是 4nm 的一颗 814mm2 的 Die,TSMC 一张 12 英寸 Wafer 大致上可以制造大约 60 颗这个尺寸的 Die,
Nvidia
大模型
商汤
冲击传统模特,商汤发布高质量虚拟试衣Diffusion模型
我们使用[44]作为初始化,提供强大的图像先验和基本的修复能力,然后在2个
NVIDIA
Tesla A100 GPU上进行40个epoch的训练。
文生图
大模型
国产编程大模型CodeGeex
这些优化为训练速度带来了显著提升,在同等GPU卡数规模下(128卡),昇腾910对CodeGeeX这一模型的训练效率从约为
NVIDIA
A100的16.7%提升至43%;在千卡规模下,昇腾910训练效率相比自身优化前提升近
编程
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
更高效的推理:为了支持更广大用户的使用,本次同时开源了 int8 和 int4 的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛,可以部署在如
Nvidia
3090 这样的消费级显卡上
大模型
微调
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
· paddlenlp >= 2.2.1 · paddlepaddle-gpu >=2.2 · CUDA Version: 10.2 ·
NVIDIA
开源模型
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100