作者:吳祐賓
![]() |
| SillyTavern 預載的 Seraphina 角色卡 可供初次載入的聊天對象 |
2025 年,我寫了篇【告別 AI 訂閱費?我的 Intel 迷你電腦 AI 本機實戰(LM Studio / Ollama / IPEX-LLM)】,在 2026 年來看,實在是太困難了,後來重建的時候發現它變簡單了。
一、環境準備
先在 D 槽或不需系統管理員權限的位置,建立一個資料夾, 例如:IPEX_LLAMA
二、安裝 SillyTavern
首先要安裝 node.js,安裝 LTS 版本即可
SillyTavern Github
看是要直接從網站打包 zip 下載,還是使用以下指令安裝 SillyTavern 都可以。
git clone https://github.com/SillyTavern/SillyTavern -b release
執行【Start.bat】啟動 SillyTavern。啟動後,瀏覽器會自動開啟 http://127.0.0.1:8000
三、安裝 Ollama-IPEX-LLM
Intel 使用 IPEX-LLM 讓 Arc / Iris XE 顯示晶片能夠儲存並運算 GGUF 模型
附帶一提,
IPEX-LLM專案已於2026年1月28日被Intel官方archive(設為唯讀)
目前 Ollama-IPEX-LLM 不僅堪用且好用,待日後若使用其它替代方案,會再另寫新文章
Ollama-IPEX-LLM Github
步驟 1: 下載免安裝連結
https://github.com/ipex-llm/ipex-llm/releases/tag/v2.3.0-nightly
下載後解壓縮到一個資料夾中
步驟 2: 啟動 Ollama Serve
打開命令提示字元(cmd),並輸入指令 cd /d PATH\TO\EXTRACTED\FOLDER 進入解壓縮後的資料夾
在視窗中執行 start-ollama.bat 即可啟動 Ollama Serve
四、安裝模型
回到原來命令列,使用以下方式設置模型:
ollama run openhermes:7b-mistral-v2.5-q4_K_M
* 只要支援中文的模型,內容都會被和諧,講不出垃圾話,還是原生的英文最沒有拒絕回答的傾向,雖然新版模型文字上很優雅,但 OpenHermes 還是最合我的味道
題外話, NVIDIA RTX 2060 6G 下
經測試,q4_K_M 約 4.13 G,適合 6G 顯卡使用
q5_K_M 約 5.1 G,6G 會稍微吃緊
效能比 3050 8G 要好,當然 8 G 的話能吃的上下文就更多了
五、 完成連接
- 回到 SillyTavern 瀏覽器頁面。
- 點擊上方插頭圖示 (API Connections)。
- API 類型選擇 Ollama。
- API URL 確認為 http://127.0.0.1:11434。
- 點擊 Connect,燈號變綠即大功告成!
AI 伴侶角色卡與設定內容未完待續...


沒有留言:
張貼留言