以上是我的顯卡的參數(shù)悠夯,可以運(yùn)行l(wèi)lama3.2:3b癌淮,qwen2.5:14b模型,不同模型上網(wǎng)自行獲取沦补。
1. 添加環(huán)境變量
在下載 ollama 之前乳蓄,先去配置環(huán)境變量,確保模型下載到我們想要的地方
win10 和 win11 輸入path或者環(huán)境變量:
增加系統(tǒng)環(huán)境變量
變量名不可更改夕膀,必須是OLLAMA_MODELS虚倒,變量值可以自定義美侦,如圖1-1-1所示
2. 下載ollama
下載網(wǎng)址:Download Ollama on Windows
下載后得到安裝包,如果不添加環(huán)境變量的話魂奥,默認(rèn)會(huì)安裝到C盤菠剩,如下圖2-1-1所示
3. 檢驗(yàn)是否安裝成功
win+R 輸入cmd后,彈出命令行界面耻煤,輸入ollama命令具壮,正常的得出命令行輸出,表示已經(jīng)安裝成功, 如圖3-1-1哈蝇、3-1-2所示
4. 通過ollama下載模型
4.1. ollama 模型庫(kù)
詳見library (ollama.com)棺妓,用于搜索已收錄的模型庫(kù)。以下是一些流行的模型:
4.2. 下載運(yùn)行l(wèi)lama3.2 3b
ollama run llama3.2:3b # 運(yùn)行l(wèi)lama3.2:3b大模型
直接使用 run 命令 + 模型名字就可以運(yùn)行模型买鸽。如果之前沒有下載過涧郊,那么會(huì)自動(dòng)下載。下載完畢之后可以在終端中直接進(jìn)行對(duì)話了眼五。如圖4-2-1所示
5. 安裝open-webui
open-webui 是一款可擴(kuò)展的妆艘、功能豐富的用戶友好型自托管 Web 界面,旨在完全離線運(yùn)行看幼。它支持包括 Ollama 和與 OpenAI 兼容的 API 在內(nèi)的多種 LLM 運(yùn)行器批旺。想了解更多信息,可以查閱開放式WebUI文檔诵姜。
5.1. docker 卸載
控制面板 -> 卸載程序 -> 雙擊Docker Desktop汽煮,如圖所示
但這樣卸載不干凈,存在文件殘留棚唆,我嘗試找到了幾個(gè)暇赤,供參考:
"C:\Users\zhouxs\AppData\Local\Docker"
"C:\Users\zhouxs\AppData\Roaming\Docker"
"C:\Users\zhouxs\AppData\Roaming\Docker Desktop"
5.2. docker 安裝
docker 官網(wǎng):https://www.docker.com/products/docker-desktop/
先去官網(wǎng)下載安裝包,選擇對(duì)應(yīng)的操作系統(tǒng)和CPU架構(gòu)的安裝包
完畢之后打開docker desktop進(jìn)入圖5-2-2下面這個(gè)界面:
5.2.1修改鏡像站
選擇設(shè)置(Settings)宵凌,選擇Docker Engine, 添加鏡像站鞋囊,加快下載速度,添加后點(diǎn) Apply瞎惫,如圖5-2-3
{
? "builder": {
? ? "gc": {
? ? ? "defaultKeepStorage": "20GB",
? ? ? "enabled": true
? ? }
? },
? "experimental": false,
? "features": {
? ? "buildkit": true
? },
? "registry-mirrors": [
? ? "https://1nj0zren.mirror.aliyuncs.com",
? ? "https://docker.mirrors.ustc.edu.cn",
? ? "http://f1361db2.m.daocloud.io",
? ? "https://registry.docker-cn.com"
? ]
}
5.2.2修改docker image存儲(chǔ)文件來
選擇設(shè)置(Settings)溜腐,選擇資源(Resources), 選擇高級(jí)(Advanced), 修改存儲(chǔ)位置為D盤D:\ProgramData\Docker下,選擇Apply&Restart,? 如圖5-2-4所示
到這里 docker desktop 的配置就大功告成了瓜喇,可以開始下載 open-webui 容器了 挺益。
5.3. 通過 docker 下載 Open WebUI
如果沒有GPU運(yùn)行
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于不同的服務(wù)器上,請(qǐng)使用以下命令:
要連接到另一臺(tái)服務(wù)器上的 Ollama乘寒,請(qǐng)更改OLLAMA_BASE_URL為該服務(wù)器的 URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要運(yùn)行支持 Nvidia GPU 的 Open WebUI望众,請(qǐng)使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
完成后如下圖5-3-1所示
5.3.1. 僅供OpenAI API 使用安裝
如果您僅使用 OpenAI API,請(qǐng)使用此命令:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
5.3.2. 同時(shí)安裝 Ollama 和 Open WebUI
此安裝方法使用將 Open WebUI 與 Ollama 捆綁在一起的單個(gè)容器映像,從而允許通過單個(gè)命令進(jìn)行簡(jiǎn)化設(shè)置黍檩。根據(jù)您的硬件設(shè)置選擇適當(dāng)?shù)拿睿?/p>
借助 GPU 支持:通過運(yùn)行以下命令來利用 GPU 資源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
僅適用于 CPU:如果您不使用 GPU叉袍,請(qǐng)改用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
這兩個(gè)命令都有助于 Open WebUI 和 Ollama 的內(nèi)置、無憂安裝刽酱,確保您可以快速啟動(dòng)并運(yùn)行一切喳逛。
安裝后,可以通過http://localhost:3000訪問 Open WebUI 棵里。
最終效果:
Sign up 創(chuàng)建賬戶并登錄后润文,左上角模型選擇我們之前下好的llama3.2:3b,就可以開始對(duì)話了殿怜,可以上傳文件典蝌,響應(yīng)速度還是很快的: