Ollama与OpenWebUI的安装与使用

文章目录[x]
  1. 1:3.1 下载Ollama
  2. 2:3.2 安装Ollama
  3. 3:3.3 配置Ollama的模型路径和端口
  4. 4:3.4 下载qwen2.5-coder 7b模型
  5. 5:3.5 Ollama命令
  6. 6:3.6 API
  7. 7:4.1 安装docker
  8. 8:4.2 安装OpenWebUI
  9. 9:4.3 设置管理员账户
  10. 10:4.4 配置ollama
  11. 11:5.1使用docker安装searxng
  12. 12:5.2 修改searxng配置
  13. 13:5.3 Openwebui配置searxng

1. 效果演示

演示地址http://192.168.2.34:3000/

2. 软硬件配置

系统 Windows10
内存 16G
磁盘 50G
显卡 1660TI(6G)
软件 Docker

 

3. 安装Ollama

3.1 下载Ollama

Ollama官网下载Ollama安装包:https://ollama.com/

3.2 安装Ollama

Windows下安装Ollama很简单,双击运行安装文件即可,此处不赘述。

打开终端,输入ollama,出现下图所示代表安装成功

注意:

windows 的安装默认不支持修改程序安装目录,

默认安装后的目录:C:\Users\username\AppData\Local\Programs\Ollama

默认安装的模型目录:C:\Users\username\ .ollama

默认的配置文件目录:C:\Users\username\AppData\Local\Ollama

3.3 配置Ollama的模型路径和端口

由于Ollama的模型默认会在C盘用户文件夹下的.ollama/models文件夹中,可以配置环境变量OLLAMA_MODELS和OLLAMA_HOST,设置为指定的路径和端口:

3.4 下载qwen2.5-coder 7b模型

从ollama官网首页右上角点击“Models”进入ollama官方提供的模型列表,我们可以从中选用合适的模型进行下载安装。以qwen2.5-coder 7b为例。

 

  1. 点击5-coder进入详情页。
  2. 选择7b参数的模型。
  3. 复制命令。
  4. 在命令行中粘贴命令,并执行。
  5. 等待模型下载完成,就可以在命令行窗口中对话了。
  6. 输入/bye退出对话模式。

3.5 Ollama命令

启动Ollama服务 ollama serve
2. 从模型文件创建模型 ollama create
3. 显示模型信息 ollama show
4. 运行模型 ollama run 模型名称
5. 从注册表中拉去模型 ollama pull 模型名称
6. 将模型推送到注册表 ollama push
7. 列出模型 ollama list
8. 复制模型 ollama cp
9. 删除模型 ollama rm 模型名称
10. 获取有关Ollama任何命令的帮助信息 ollama help

3.6 API

Ollama同时提供与openai一样的兼容web接口,可以在命令行以外的地方使用对话功能和部署模型功能。https://github.com/ollama/ollama/blob/main/docs/api.md

可以使用python代码去连接到本地的大模型,也可以使用一些开源的项目去连接,下面介绍OpenWebUI的使用。

4. 安装OpenWebUI

4.1 安装docker

4.2 安装OpenWebUI

Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

4.3 设置管理员账户

首次登录需要设置一个管理员账户

4.4 配置ollama

如果是本机安装的ollama,并且没有修改端口号的情况,OpenWebUI默认设置就可以连接到ollama,如果不是上述情况,需要设置一下。

OpenWebUI也可以使用外部在线模型,如ChatGPT、ChatGLM、通义千问、月之暗面等等。

5.安装SearXNG

5.1使用docker安装searxng

教程地址:https://tkmatrix.github.io/searxng/admin/installation-docker.html

主要命令:

$ mkdir my-instance
$ cd my-instance
$ export PORT=8080
$ docker pull searxng/searxng
$ docker run --rm \
             -d -p ${PORT}:8080 \
             -v "${PWD}/searxng:/etc/searxng" \
             -e "BASE_URL=http://localhost:$PORT/" \
             -e "INSTANCE_NAME=my-instance" \
             searxng/searxng

5.2 修改searxng配置

searxng默认接口返回的格式是html格式,需要增加json格式;

修改支持的搜索引擎,国内无法使用的google、duckduckgo等,需要添加对bing的支持。

修改完配置后需要重启docker容器

5.3 Openwebui配置searxng

  1. 在管理员设置界面开启联网搜索功能,并配置好searxng。
  2. 在对话之前需要开启联网搜索,默认不开启联网搜索。
  3. 如果能够搜索到内容,大模型会根据搜索结果进行回答。
  4. 很多时候searxng返回内容为空,出现回答结果不理想的情况。

 

点赞

发表回复

昵称和uid可以选填一个,填邮箱必填(留言回复后将会发邮件给你)
tips:输入uid可以快速获得你的昵称和头像(已失效)