首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
Ollama
的本地化又一图形工具ChatOllama,让你轻松玩转
ollama
,ChatGPT
ChatOllama是一款
ollama
图形化管理工具,集成了
ollama
,OpenAI,可以实现
ollama
的模型管理,系统指令管理,知识库管理,AI聊天等功能,功能方面与Open WebUI类似,作者在不断改进优化功能
ChatOllama
安装
基于
Ollama
本地部署Llama3指南!
如何安装
ollama
如何安装可以看往期文章,这里不多做赘述了。
LLama3
ollama
大模型
ollama
本地部署自然语言大模型
本文采用
ollama
,简单运行本地大模型,不需要写代码。
ollama
语言大模型
部署
大模型
基于
Ollama
本地部署谷歌开源Gemma大模型!
这次使用Gemma,我们还是用LLM的老朋友开源的
Ollama
项目。
ollama
gemma
qwen
Ollama
与 Dify:AI 应用开发的强强联合
Ollama
和 Dify 两个开源项目为解决这一挑战提供了强大的解决方案。
Ollama
Dify
大型语言模型
高效选择:
Ollama
与LM Studio深度对比
对于IT专业人士来说,选择
Ollama
还是LM Studio,这是一个值得深思的问题。
Ollama
LM
Studio
对比
LLM
实操:基于
Ollama
+AnythingLLM 的 AI 超级阅读法
后来,我在自己笔记本电脑上用“
Ollama
+AnythingLLM”搭建了一个本地化的大模型知识库,和自己的知识库交互,信息安全,内容可靠,不用上网,无限使用。
Ollama
AnythingLLM
阅读
Ollama
最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
上周,
Ollama
进行了v0.1.33版本更新,为本地部署的开源大型语言模型(LLMs)带来了重大改进。
ollama
语言大模型
聊天
开源
星标破万!小钢炮2.6登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
MiniCPM-V 2.6 可以通过多种方式轻松使用:(1) llama.cpp 和
ollama
支持在本地设备上进行高效的 CPU 推理,(2)&
MiniCPM-V
2.6
大模型
开源
无显卡+纯本地跑Qwen1.5版模型!0基础闭眼部署指南!适用绝大部分开源模型!llama2+Mistral+Zephyr通杀!
① 部署
ollama
推理环境!
Qwen1.5
开源模型
大模型
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
7、配置本地大语言模型 在MarKB应用界面内,点击系统设置,然后再进入模型设置界面,在这里,你可以看到MarKB目前能够支持的大语言模型,如百度千帆、Azure OpenAI、ChatGPT、
ollama
知识库MaxKB
开源
实测:本地跑llama3:70B需要什么配置
首先使用
ollama
下载70b模型,不知道
ollama
的请自行百度,这里有个小细节_-->>
ollama
默认缓存目录在C盘当前用户目录下,几个大模型就能爆了你的C盘,所以务必修改环境变量OLLAMA_MODELS
llama
GPU内存
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
AutoGPTQ、AutoAWQ、Neural Compressor) 部署(vLLM、SGL、SkyPilot、TensorRT-LLM、OpenVino、TGI) 本地运行(MLX、Llama.cpp、
Ollama
qwen
千问
开源
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
[2024.05.28] 💥 MiniCPM-Llama3-V 2.5 现在在 llama.cpp 和
ollama
中完全支持其功能!
minicpm
面壁
开源
GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
Screenpipe 使用 Rust 语言开发,并提供灵活的插件系统,可与
Ollama
等工具协同工作,适用于从屏幕和音频数据中获取实时分析的需求。
AIPC
ScreenPipe
开源
<
1
2
>
1
2
4
5
6
7
8
9
100