我的收藏
退出登录
全部
聊天魔法
图片魔法
写作魔法
音视频魔法
编程魔法
开源训练
混合专家模型 (
MoE
) 详解
·
手把手!做Llama3的
MoE
专家混合模型!底层原理怎样的?做自己的
MoE
模型?需要多少算力?
·
深入解析 Mistral AI 的 Mixtral 8x7B 开源
MoE
大模型
·
大模型的研究新方向:混合专家模型(
MoE
)
·
国内首个!最火的
MoE
大模型APP来了,免费下载,人人可玩
·
0基础!动手部署Qwen1.5-
MoE
模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
·
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
·
大模型实践总结
·
必读!RAG好用的3种Router
·
个人从零预训练1B LLM心路历程
·
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
·
Deepseek-V2技术报告解读!全网最细!
·
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
·
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
·
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
·
<
1
2
3
>