2026/03/04

2026 年,使用 Intel 迷你 PC 打造 AI 伴侶,使用 SillyTavern + ollama-ipex-llm

 作者:吳祐賓

 

SillyTavern 預載的 Seraphina 角色卡
可供初次載入的聊天對象

 

 

 

2025 年,我寫了篇【告別 AI 訂閱費?我的 Intel 迷你電腦 AI 本機實戰(LM Studio / Ollama / IPEX-LLM)】,在 2026 年來看,實在是太困難了,後來重建的時候發現它變簡單了。

 

一、環境準備

先在 D 槽或不需系統管理員權限的位置,建立一個資料夾, 例如:IPEX_LLAMA

 

二、安裝 SillyTavern

首先要安裝 node.js,安裝 LTS 版本即可

SillyTavern Github

看是要直接從網站打包 zip 下載,還是使用以下指令安裝 SillyTavern 都可以。

git clone https://github.com/SillyTavern/SillyTavern -b release 

 

執行【Start.bat】啟動 SillyTavern。啟動後,瀏覽器會自動開啟 http://127.0.0.1:8000


三、安裝 Ollama-IPEX-LLM

Intel 使用 IPEX-LLM 讓 Arc / Iris XE 顯示晶片能夠儲存並運算 GGUF 模型

附帶一提,

IPEX-LLM專案已於2026年1月28日被Intel官方archive(設為唯讀) 

目前 Ollama-IPEX-LLM 不僅堪用且好用,待日後若使用其它替代方案,會再另寫新文章

 

Ollama-IPEX-LLM Github 

步驟 1: 下載免安裝連結

https://github.com/ipex-llm/ipex-llm/releases/tag/v2.3.0-nightly

下載後解壓縮到一個資料夾中 

步驟 2:  啟動 Ollama Serve

打開命令提示字元(cmd),並輸入指令 cd /d PATH\TO\EXTRACTED\FOLDER 進入解壓縮後的資料夾
在視窗中執行 start-ollama.bat 即可啟動 Ollama Serve

 

四、安裝模型

回到原來命令列,使用以下方式設置模型:

ollama run openhermes:7b-mistral-v2.5-q4_K_M

 

* 只要支援中文的模型,內容都會被和諧,講不出垃圾話,還是原生的英文最沒有拒絕回答的傾向,雖然新版模型文字上很優雅,但 OpenHermes 還是最合我的味道

題外話, NVIDIA RTX 2060 6G 下

經測試,q4_K_M 約 4.13 G,適合 6G 顯卡使用

q5_K_M 約 5.1 G,6G 會稍微吃緊

效能比 3050 8G 要好,當然 8 G 的話能吃的上下文就更多了 

 

五、 完成連接

 


 

 

  1. 回到 SillyTavern 瀏覽器頁面。
  2. 點擊上方插頭圖示 (API Connections)。
  3. API 類型選擇 Ollama。
  4. API URL 確認為 http://127.0.0.1:11434。
  5. 點擊 Connect,燈號變綠即大功告成!


AI 伴侶角色卡與設定內容未完待續...

 

 

 

 

沒有留言:

張貼留言