AI-windows本地搭建大模型-Ollama+llama3+open-webui

参考文档:廖雪峰的官方网站-本地快速安装运行史上最强开源LLaMa3大模型

1 部署Ollama工具

 

Ollama是一个开源的 LLM(大型语言模型)服务工具,可以在它上边部署、运行各种开源大模型。

1.1 安装Ollama

 

可以在Ollama官网github中文网 下载windows安装包OllamaSetup.exe,双击安装即可完成。

安装路径默认:C:\Users\用户名\AppData\Local\Programs\Ollama

1.2 启动Ollama

 

安装完ollama会自动启动,可以访问 http://localhost:11434/ 来验证:

后续可以双击Ollama图标启动,也可以使用cmd命令行手动启动服务:

ollama serve

 

2 部署llama3大模型

 

llama3是MetaAI开源的一代大语言模型。安装Ollama之后,可以通过Ollama来部署、运行、使用llama3.

2.1 使用ollama安装、运行llama3

 

安装了ollama之后,可以执行以下命令行启动llama3,首次运行会自动安装:   

ollama run llama3

接下来就可以用命令行和llama3对话了:

模型文件默认位置:C:\Users\用户名\.ollama\models

2.2 ollama其他常用命令

 

查看所有模型:

ollama list

删除模型:

ollama rm llama3

2.3 安装llama3-中文微调版

 

由于llama3官方版本中文支持不太理想,许多人对其进行了针对中文的微调,可以去huggingface.co(需要魔法或它的镜像地址下载。

2.3.1 下载模型

 

选择对应的llama3中文微调版本模型,下载gguf文件(GGUF格式是llama.cpp团队搞的一种模型存储格式,一个模型就是一个文件,方便下载):

语言选择Chinese,搜索llama3,可以按需排序:

选择某一个模型进去,选择files and versions,下载那个gguf文件:

2.3.2 导入模型

 

编写一个配置文件,随便起个名字,如 Llama3-8B-Chinese-Chat-config.txt, 其中的gguf文件路径记得替换:

FROM "E:\software\Ollama\Llama3-8B-Chinese-Chat-q8_0-v2_1.gguf"

TEMPLATE """{{- if .System }}
<|im_start|>system {{ .System }}<|im_end|>
{{- end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""

SYSTEM """"""

PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>

使用以下cmd命令导入模型,记得替换txt文件路径

ollama create llama3-cn -f E:\software\Ollama\Llama3-8B-Chinese-Chat-config.txt

完成之后可以执行 ollama list  查看所有模型。

接下来可以执行ollama run llama3-cn来使用该模型。

3 部署Open WebUI环境

 

用Docker可以比较方便的部署、运行Open WebUI. Open WebUI可以在web端访问本地运行的大模型,比命令行端方便。

3.1 安装docker desktop

 

官网(需要魔法下载docker desktop,或者阿里云镜像下载。双击Docker Desktop Installer.exe安装即可;

docker路径 C:\Users\用户名\AppData\Local\Docker\wsl\data

安装后重启会提示一些问题,应该是没有开启Hyper-V。

3.2 开启Hyper-V并升级wsl

 

参考:https://blog.csdn.net/m0_37802038/article/details/129893827

如果是非win11家庭中文版:直接打开控制面版--程序--程序和功能--启用或关闭windows功能 ,勾选Hyper-V即可:

如果是win11家庭中文版,控制面板可能找不到Hyper-V,就需要创建一个文本并以 .cmd为后缀命名(比如:开启hyper.cmd),复制以下内容贴进去:

pushd "%~dp0"
dir /b %SystemRoot%\servicing\Packages\*Hyper-V*.mum >hyper-v.txt
for /f %%i in ('findstr /i . hyper-v.txt 2^>nul') do dism /online /norestart /add-package:"%SystemRoot%\servicing\Packages\%%i"
del hyper-v.txt
Dism /online /enable-feature /featurename:Microsoft-Hyper-V-All /LimitAccess /ALL

右键该文件“以管理员方式运行”,重启电脑,即可开启hyper-V。

重启之后如果依然报错,根据提示,可能是wsl版本不是最新的,管理员方式运行power shell,然后更新wsl即可:

wsl --update

 

3.3 验证docker

 

cmd命令查看docker安装的版本看是否安装成功:

docker --version

 

3.4 配置国内镜像源

 

docker默认使用官方镜像源,国内访问需要魔法且速度较慢,建议切换到国内镜像源(比如阿里云):

双击打开docker desktop,设置,Docker Engine,添加以下内容:

          "registry-mirrors": [
            "https://9d819rsw.mirror.aliyuncs.com"
          ]

cmd命令行运行hello-world进行验证:

docker run hello-world

该提示说明没有运行docker守护进行,双击刚刚安装的docker desktop,然后再执行该命令,第一次会自动下载镜像,稍等片刻:

查看docker desktop会看到hello-world镜像和实例,点击可启动:

3.5 安装Open-WebUI

 

open-webui github地址

docker安装open-webui即可使用:

docker run --security-opt seccomp:unconfined -p 8080:8080 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 --name open-webui --restart always -v open-webui-data:/app/backend/data ghcr.io/open-webui/open-webui:main

参数说明:

  1. --security-opt seccomp:unconfined  由于docker desktop版本较低,所以关闭Seccomp保护 
  2. -p 8080:8080 映射本地端口
  3. -e OLLAMA_BASE_URL=http://host.docker.internal:11434 指定ollama的url地址

安装之后访问 http://localhost:8080 即可访问本地部署的大模型:

以后可以在docker desktop启动、管理open-webui:

下一篇: