我的收藏
退出登录
全部
聊天魔法
图片魔法
写作魔法
音视频魔法
编程魔法
开源训练
混合专家模型 (
MoE
) 详解
·
手把手!做Llama3的
MoE
专家混合模型!底层原理怎样的?做自己的
MoE
模型?需要多少算力?
·
深入解析 Mistral AI 的 Mixtral 8x7B 开源
MoE
大模型
·
大模型的研究新方向:混合专家模型(
MoE
)
·
国内首个!最火的
MoE
大模型APP来了,免费下载,人人可玩
·
0基础!动手部署Qwen1.5-
MoE
模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
·
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
·
大模型实践总结
·
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
·
Deepseek-V2技术报告解读!全网最细!
·
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
·
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
·
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
·
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
·
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
·
<
1
2
>