AI魔法学院客服
ollama本地部署自然语言大模型
本文介绍了如何在本地运行大模型,特别推荐使用ollama工具,无需编写代码。测试环境为i5 8400、16G内存和1060 6G显卡。通过下载和安装ollama,用户能够方便地在本地运行大模型,并使用Chatbox作为桌面程序简化模型调用。文章还提供了ollama和Chatbox的下载地址,以及修改模型默认安装位置的方法。此外,还列出了多种可下载的大模型及其安装命令,包括gemma:2b等,并指出了运行不同规模模型所需的最低内存要求。最后,文章还介绍了通过命令行与模型进行交互的方法。
 2024-07-19
收藏 复制地址分享海报

大模型已经发布很久,网络上的大模型形形色色,现在已然是群英荟萃,那么,如何在本地运行一个大模型?

本文采用ollama,简单运行本地大模型,不需要写代码。

测试机器:

i5 8400

16G内存

1060 6G

安装ollama安装,下载,运行模型。Chatbox作为桌面程序,用来更方便的调用大模型。

经测试,gemma:2b模型可流畅运行

ollama

下载地址

githup

https://github.com/ollama/ollama/releases

百度云

https://pan.baidu.com/s/1kETzxfpJEDm0LovVRf4AFg?pwd=anan

模型默认安装位置

C:\Users\用户名\.ollama

1

修改模型默认安装位置

模型的默认下载路径为

C:\Users\<username>\.ollama\models

如果不想保存在C盘,需要修改,择需要添加环境变量,并重启ollama

OLLAMA_MODELS

修改完毕后需要重启ollama,在任务栏右键退出。之后再window中双击运行

在这里插入图片描述

最后可以看到在我们的设置页面中出现了一个新的文件夹,这就表示设置成功了

可下载模型

执行以上命令后,Ollama 将开始初始化,并自动从 Ollama 模型库中拉取并加载所选模型。一旦准备就绪,就可以向它发送指令,它会利用所选模型来进行理解和回应。

记得将modelname名称换成要运行的模型名称,常用的有:

模型       参数       大小       安装命令       发布组织

Llama 2   7B   3.8GB     ollama run llama2 Meta

Code Llama   7B   3.8GB     ollama run codellama   Meta

Llama 2 13B   13B  7.3GB     ollama run llama2:13b  Meta

Llama 2 70B   70B  39GB      ollama run llama2:70b  Meta

Mistral    7B   4.1GB     ollama run mistral Mistral AI

mixtral    8x7b       26GB      ollama run mixtral:8x7b       Mistral AI

Phi-2      2.7B 1.7GB     ollama run phi      Microsoft Research

LLaVA    7B   4.5GB     ollama run llava    Microsoft Research

Columbia University                         

Wisconsin                          

Gemma 2B     2B   1.4GB     ollama run gemma:2b  Google

Gemma 7B     7B   4.8GB     ollama run gemma:7b  Google

Qwen 4B 4B   2.3GB     ollama run qwen:4b     Alibaba

Qwen 7B 7B   4.5GB     ollama run qwen:7b     Alibaba

Qwen 14B      14B  8.2GB     ollama run qwen:14b    Alibaba

运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存。

相关命令

# 查看本地已经下载的模型

ollama list

# 下载模型 例如gemma:2b

ollama run gemma:2b

下载完毕后

可通过命令行输出与之对话

Chatbox客户端

Chatbox 支持 ollama,可以使用图形化的对话方式。

下载地址

githup

https://github.com/Bin-Huang/chatbox/releases

百度云

https://pan.baidu.com/s/11mUtHDAN-nvfk0L_3ZE26Q?pwd=anan

设置ollama模型并运行

                       

原文链接:https://blog.csdn.net/qq_46554590/article/details/136547400

本文档由网友提供,仅限参考学习,如有不妥或产生版权问题,请联系我们及时删除。 客服请加微信:skillupvip
评论
1 评论
肥水不牛油2024/7/19 10:34:25


哇,这教程太赞了!再也不用担心电脑里的AI模型会“离家出走”了!ollama和Chatbox简直是本地模型运行的“神器”!内存要求也写得明明白白,再也不怕“内存不足,请稍后重试”的尴尬局面了!
20秒读懂全文
伴读
# 1. 一句话总结文章摘要
本文介绍了如何在本地运行大型AI模型,特别是使用ollama工具,无需编写代码,并提供了相关设置和模型下载的指南。

# 2. 生成关键词和可能相关的关键词
关键词:本地运行大模型、ollama、大模型、AI模型、模型下载、环境配置、模型参数、模型库、Chatbox、图形化对话

可能相关的关键词:深度学习、机器学习、神经网络、GPU加
One More Thing
One More Thing again ...

找组织,加入AI魔法学院群