我的收藏
退出登录
全部
聊天魔法
图片魔法
写作魔法
音视频魔法
编程魔法
开源训练
微软打破
Decoder
-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
·
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
·
图解 transformer——逐层介绍
·
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
·
图解 Transformer——功能概览
·
【开源项目】Flow Matching 语音合成
·
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
·
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
·
预训练对话大模型深度解读
·
大模型实践总结
·
OpenAI视频模型Sora的推理生成成本多高?
·
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
·
SD入门教程一:Stable Diffusion 基础(技术篇)
·
硬核解读Stable Diffusion(系列一)
·
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
·
<
1
2
3
4
>