首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 实测:本地跑llama3:70B需要什么配置
· 社区供稿|GPT-4 与国产模型,大!横!评!
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· AI换脸工具:facefusion使用心得
· 保姆级教程:手把手教你创建GPTs角色应用
· 从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
· Stable Diffusion|提示词高阶用法(四)LoRA指定区域
· 8个常用中文OCR数据集,附下载链接
· 大模型能力快速测评极简题目
· 无需翻墙,可合法使用的8款国内AI大模型产品
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
基于Ollama本地部署谷歌开源
Gemma
大模型!
在开始使用
Gemma
开源大语言模型(LLM)前,我们先了解下
Gemma
以及配套的工具。
ollama
gemma
qwen
大模型
开源大模型王座易主!谷歌
Gemma
杀入场,笔记本可跑,可商用
谷歌推出了全新的开源模型系列「
Gemma
」。
开源模型
Gemma
大模型
ollama本地部署自然语言大模型
经测试,
gemma
:2b模型可流畅运行 ollama 下载地址 githup https://github.com/ollama/ollama/releases
ollama
语言大模型
部署
大模型
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、
Gemma
、Kimi等几十种大模型,零代码集成。
今天跟大家分享的内容是,如何在本地搭建自己的本地知识库问答系统MaxKB,与其他问答知识库相比,他真正做到了开箱即用,零代码集成,支持ChatGPT、百度千帆、Lama2、Lama3,通义千问等几十种大语言模型,操作界面简介,小白也能快速上手。
知识库MaxKB
开源
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
8B模型在MMLU、GPQA、HumanEval等多项基准上均胜过
Gemma
7B和Mistral 7B Instruct。
meta
llama3
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
比如
Gemma
7B里,
Gemma
是模型的名称,一般指代一个系列的模型。
大语言模型
运行
ChatGPT
Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
system角色,比如让它做为你的翻译助手,可以在instrucions选create new instruction创建指令,保存: 最上面选chat,chat with处选择要用的模型,从下拉中选择
gemma
ChatOllama
安装
基于Ollama本地部署Llama3指南!
谷歌开源
Gemma
,本地部署指南!
LLama3
ollama
Ollama 与 Dify:AI 应用开发的强强联合
Ollama 是一个本地推理框架,允许开发人员轻松地在本地部署和运行 LLM,例如 Llama 3、Mistral 和
Gemma
。
Ollama
Dify
大型语言模型
开源
46.6k星星!最强开源AI集合系统,一键部署全网AI工具都能直接用,UI简直是视觉盛宴!
OpenRouter:支持包括Claude 3、
Gemma
、Mistral、Llama2和Cohere在内的模型路由。
AI开源
集合
LLM
个人从零预训练1B LLM心路历程
最开始应群友建议,我尝试了下训练recurrent
gemma
结构的模型,只不过它的pytorch实现训练效率太差了,和训transformer结构相比慢了几十倍,遂放弃,
gemma
是google
LLM
训练
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
今年 2 月 1 日,面壁智能发布的第一代 2B 旗舰端侧大模型 MiniCPM,不仅超越了来自「欧洲版 OpenAI」Mistral 的性能标杆之作,同时整体领先于 Google
Gemma
MiniCPM
大模型
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
短上下文评估 表 1 总结了 MEGALODON 和 LLAMA2 在学术基准上的结果,以及其他开源基础模型,包括 MPT、RWKV 、Mamba 、 Mistral 和
Gemma
Meta
长文本
大模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
虽然 MiniCPM 的模型参数只有 2.4B,却能达到参数规模为 13B 的 LLaMA-2 的水平,与谷歌的
Gemma
7B 相当,大幅超过
Gemma
2B。
Grok-1
开源模型
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
还有其他模型系列,如 Yi、Xwin、
Gemma
和 CodeLlama 也在较小程度上显示出这种模式。
过拟合
小模型
<
1
2
>
1
2
4
5
6
7
8
9
100