首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 一文汇总市面上所有prompts提示词框架!
· Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
· 有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
· 盘点字节跳动最新的AI应用
· 产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
· 一条价值2W的Prompt,帮你生成提示词的超级提示词
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
Stable Diffusion 入门教程开篇
使用门槛 本地部署电脑的硬件配置需满足: · Widows系统:内存8G以上,
Nvidia
(英伟达)显卡,显卡内存4G以上,硬盘空间500G以上。
Stable
Diffusion
文生图
入门教程
开源
国内外开源大语言模型一览表
instruction-following Chinese LLaMA/Pythia/GLM model tuning methods which can be trained on a single
Nvidia
大模型
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
、 “做个自我介绍”、 “你好” Llama3 会用中文回答 : “我是AI在手” (如下图) 1、环境安装 #
nvidia
显卡 显存16G
Llama3
对话问答模型
大模型
【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
所有这些实验都是在 8 块
NVIDIA
A100-40GB GPU 上进行的,实验细节请参考我们的论文。
训练
大模型
belle
ComfyUI
StableDiffusion升级版SDXL:一键运行包ComfyUI和18G模型分享!
XSDL软硬件要求: 操作系统 Win10/WIN11/Linux 内测 16GB RAM 显卡
Nvidia
RTX20+ ,AMD (Linux) 显存 8GB+ RAM 这是官方给出的说明
comfyui
sdxl
文生图
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
监听显卡,每 1 秒刷新一次:watch -n -1 -d
nvidia
-smi 四、结论 模型推理服务部署GPU配置推荐如下: &ensp
开源模型
工具
【AI绘图工具】太爆炸了,AI出图速度100fps(每秒100张图片),比LCM、SDXL Turbo更快,目前No.1
· TensorRT是
NVIDIA
提供的一个优化工具包,用于提高深度学习应用的吞吐量和效率。
StreamDiffusion
文生图
大模型
大模型实践总结
TPU + XLA + TensorFlow/JAX :由Google主导,由于TPU和自家云平台GCP深度绑定 GPU + PyTorch + Megatron-LM + DeepSpeed :由
NVIDIA
大模型
训练
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
2、Llama 3模型已经得到了AMD、AWS、Dell、Intel、
NVIDIA
和高通提供的硬件平台的支持,并很快在AWS、Databricks、Google Cloud、Hugging
Llama
3
大语言模型
大模型
大模型训练为什么用A100不用4090
中间的 Logic Die 最大颗,看上去最高贵 :) 那是 4nm 的一颗 814mm2 的 Die,TSMC 一张 12 英寸 Wafer 大致上可以制造大约 60 颗这个尺寸的 Die,
Nvidia
大模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
更高效的推理:为了支持更广大用户的使用,本次同时开源了 int8 和 int4 的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛,可以部署在如
Nvidia
3090 这样的消费级显卡上
大模型
微调
大模型
国产编程大模型CodeGeex
这些优化为训练速度带来了显著提升,在同等GPU卡数规模下(128卡),昇腾910对CodeGeeX这一模型的训练效率从约为
NVIDIA
A100的16.7%提升至43%;在千卡规模下,昇腾910训练效率相比自身优化前提升近
编程
商汤
冲击传统模特,商汤发布高质量虚拟试衣Diffusion模型
我们使用[44]作为初始化,提供强大的图像先验和基本的修复能力,然后在2个
NVIDIA
Tesla A100 GPU上进行40个epoch的训练。
文生图
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
参考文章: [1]
NVIDIA
Blackwell Architecture and B200/B100 Accelerators Announced: Going Bigger With Smaller
芯片拼接
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
参考文章: [1]
NVIDIA
Blackwell Architecture and B200/B100 Accelerators Announced: Going Bigger With Smaller
芯片拼接技术
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100