我的收藏
退出登录
全部
聊天魔法
图片魔法
写作魔法
音视频魔法
编程魔法
开源训练
深入解析 Mistral AI 的
Mixtral
8x7B 开源MoE大模型
·
Mixtral
7B 官宣免费,一大波 AI 模型也免费了,有网就能用!
·
微软Phi-3、
Mixtral
8x22B等小模型过拟合,三分之二存在数据污染
·
ollama本地部署自然语言大模型
·
混合专家模型 (MoE) 详解
·
Ollama最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
·
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
·
QWen1.5: 卓越模型之路
·
RAG 2.0来了,它能成为生产落地的福音吗?
·
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
·
0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
·
新测试基准发布,最强开源Llama 3尴尬了
·
图解检索增强式生成(RAG)技术 | 万字长文
·
高级 RAG 技术——图解概览
·
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
·
<
1
2
>