NAS 轻松部署 Serge:本地也能运行大语言模型

 1个月前     39  

文章目录

 

Serge

一个基于 llama.cpp 构建的聊天界面,用于运行 LLM 模型。无需 API 密钥,完全自托管。

NAS 轻松部署 Serge:本地也能运行大语言模型

安装

Docker Compose

services:
 serge:
  image: ghcr.io/serge-chat/serge:latest
  container_name: serge
  restart: unless-stopped
  ports:
   - 8008:8008
  volumes:
   - /vol1/1000/docker/serge/weights:/usr/src/app/weights
   - /vol1/1000/docker/serge/datadb:/data/db

参数说明(更多参数设置建议去看文档)

/usr/src/app/weights:模型相关的权重文件

/data/db:数据存储

使用

初次启动会自动下载文件,需要等待下载完成,可以去日志查看情况

NAS 轻松部署 Serge:本地也能运行大语言模型

浏览器中输入 http://NAS的IP:8008 就能看到界面

NAS 轻松部署 Serge:本地也能运行大语言模型

可以切换浅色主题

NAS 轻松部署 Serge:本地也能运行大语言模型

首先需要下载模型

NAS 轻松部署 Serge:本地也能运行大语言模型

提供模型数量也不少

NAS 轻松部署 Serge:本地也能运行大语言模型

每个模型都有标注大小,下面是对应所需内存情况:

7B 需要大约 4.5GB 的可用 RAM

13B 需要大约 12GB 的可用 RAM

30B 需要大约 20GB 的可用 RAM

根据自己配置情况下载模型(不建议下载大于 13B 的,回复速度太慢了,影响体验)

NAS 轻松部署 Serge:本地也能运行大语言模型

TIP:

点击了下载按钮但没反应,大概率是网络问题

NAS 轻松部署 Serge:本地也能运行大语言模型

等待下载完成即可

NAS 轻松部署 Serge:本地也能运行大语言模型

这样就表示下载完成(不要点击,那个按钮是删除)

NAS 轻松部署 Serge:本地也能运行大语言模型

返回首页

NAS 轻松部署 Serge:本地也能运行大语言模型

这里可用选择模型和进行设置(不会设置,这里默认就行),点击开始聊天

NAS 轻松部署 Serge:本地也能运行大语言模型

回复都是没问题的

NAS 轻松部署 Serge:本地也能运行大语言模型

这里是虚拟机进行测试的,所以 CPU 看起来跑满了,内存占用比较少,毕竟是 1.5b 的小模型

NAS 轻松部署 Serge:本地也能运行大语言模型

总结

如果想作为生产力工具平时使用就不太建议了,不如直接调用 API 的方式;作为本地模型的话,提供下载的模型数量又不如 Ollama 多。不过个人部署体验玩玩还是不错的,只需要下载模型就可以直接使用了,非常方便已经包含框架和界面了。不知道是不是错觉,之前也部署过 Serge 当时好像下载还比较轻松,现在老是下到一般就断开了,而且必须要有良好网络条件。

综合推荐:⭐⭐⭐(可以尝试一下)

使用体验:⭐⭐⭐(简单快捷)

部署难易:⭐⭐(简单)

版权声明:ming 发表于 1个月前,共 914 字。
转载请注明:NAS 轻松部署 Serge:本地也能运行大语言模型 | 开心啊

您可能感兴趣的

暂无评论

暂无评论...