Skip to content

在 Silly Tavern 裏找不到 Ollama 入口?

Silly Tavern 新版找不到 Ollama?三步搞定本地模型設置

Silly Tavern(當前最新版本可參考 1.16.0)很適合作爲自託管家庭服務器上的前端;配合 Ollama、LM Studio,可以把本地 LLM跑在自家機器裏,聊天內容儘量留在本機,滿足隱私本地部署需求。升級後常有人問:Ollama / LM Studio 的界面去哪兒了?其實並不是刪掉了,而是 API 連接面板裏主 APIAPI Type 的層級變深了。下面用三步帶你走到正確入口。

爲什麼找不到 Ollama?

新版本裏 API 連接區域重新歸類,主要有三點:

1. 主 API 分成兩條路線

點頂部工具欄的插頭圖標(API Connections),第一個下拉框是主 API(main_api)。Ollama、LM Studio 走的是 Text Completion(文本補全),不是默認更容易看到的 Chat Completion(聊天補全)。選錯這一條,後面就不會出現預期選項。

2. LM Studio 不再單獨佔一項

在「文本補全」面板裏,LM Studio 與 LiteLLM 等被合併爲 Generic (OpenAI-compatible) [LM Studio, LiteLLM, etc.],必須展開 API Type 才能看到。

3. Ollama 是獨立的 API 類型

選好 Text Completion 之後,在 API Type 裏選 Ollama,才會出現專用地址欄和模型下拉。在 Chat Completion 裏翻再找也不會出現,屬於正常行爲,換路線即可。


三步找到入口

步驟一:把主 API 切成「文本補全」

打開 API 連接面板,將第一個下拉框從 Chat Completion 改爲 Text Completion

主 API 切換爲 Text Completion

步驟二:在 API Type 中選擇 Ollama

文本補全面板展開後,在 API Type 中選 Ollama。若使用 LM Studio,則選 Generic (OpenAI-compatible) [LM Studio, LiteLLM, etc.]

選擇 Ollama API 類型

步驟三:填寫 URL、選模型並連接

API URL 中填入本機默認地址 http://127.0.0.1:11434,點擊 Connect。成功後,Ollama 模型下拉框會列出已安裝的模型,選中即可。

選擇本地模型並運行


Ollama 設置(原生方式,推薦)

本地環境

確認 Ollama 已安裝並在運行,可在終端拉取模型:

bash
# 示例:拉取 llama3.2
ollama pull llama3.2

# 或直接運行(首次會自動下載)
ollama run qwen3.5:27b

在 Silly Tavern 中填寫

設置項填寫內容
主 APIText Completion
API TypeOllama
API URLhttp://127.0.0.1:11434
Ollama 模型從下拉框選擇已安裝的模型

爲什麼不能用通用 OpenAI 接口填 Ollama? Ollama 使用自家的 /api/generate,與 OpenAI 的 /v1/chat/completions 格式不同。硬塞進 Generic OpenAI 往往會報錯,請使用專用的 Ollama 類型。


LM Studio 設置(OpenAI 兼容)

LM Studio 的本地服務器暴露的是 OpenAI 兼容接口,因此應使用 Generic (OpenAI-compatible),而不是 Ollama 類型。

配置表

設置項填寫內容
主 APIText Completion
API TypeGeneric (OpenAI-compatible) [LM Studio, LiteLLM, etc.]
Server URLhttp://127.0.0.1:1234(LM Studio 默認)
API Key純本地可留空

須先在 LM Studio 中加載模型並啓動 Local Server,否則 Silly Tavern 無法連接。


實機測試:qwen3.5:0.8b 適合角色扮演嗎?

連上 Ollama 後,用 qwen3.5:0.8b 試了一局角色扮演——結果不太理想:

qwen3.5:0.8b 對話測試:代碼與系統提示標籤混入回覆

回覆裏混進了代碼片段和系統提示裏的標籤,難以正常對話。參數量 0.8B 對複雜角色扮演偏小,建議至少 7B 及以上;想要更穩的體驗可優先考慮 14B 或 27B。更大參數的實測可參考本站中文稿 Qwen 3.5-27B 與日語角色卡實測,或日文站 同題評測


參考鏈接


關於作者

花

花(Hana)

AI工具評価の専門家。東京・新宿三丁目周辺で活動し、最新のAIアプリケーションやツールを実際に使用してレビューを提供しています。


常見問題(FAQ)

Q1:點 Connect 沒反應,也不報錯?

請先確認主 API 是否爲 Text Completion——這是最常見的遺漏。再確認 Ollama 是否在運行:終端執行 ollama list 能列出模型即正常。LM Studio 用戶請確認本地服務已啓動。

Q2:顯示連接成功,但發消息沒有回覆?

檢查模型名是否與 Ollama 側完全一致,拼寫錯誤有時會靜默失敗。也可嘗試關閉**流式輸出(Streaming)**或降低上下文長度;參數不匹配偶爾會導致請求卡住。

Q3:爲什麼輸出裏會混入奇怪代碼或標籤?

多爲模型太小:例如 0.8B 這類超小模型容易把系統提示或格式標籤泄到正文裏,指令跟隨能力也弱。建議換到 7B 以上;角色扮演場景更推薦 14B / 27B

Q4:Text Completion 和 Chat Completion 有什麼區別?該用哪個?

兩者並存、用途不同。Ollama 與多數本地鏈路走 Text Completion;OpenAI、Claude 等雲端 Chat Completion。沒有絕對優劣,按所接服務類型選擇即可。

Q5:手機上能用本地大模型嗎?

手機直接跑大模型並不現實。若想在手機上玩 AI 角色扮演,可嘗試 MiniTavern——配置 OpenRouter、DeepSeek 等 API 即可使用,無需自己搭服務器。

Q6:Silly Tavern「自託管」和雲端 API 有何不同?

自託管時,可在 PC 或家庭服務器上同時跑 Silly Tavern 與 Ollama(或 LM Studio),推理與對話記錄多可留在本地。雲端 Chat Completion(如 OpenAI)數據會經過服務商,通常按場景組合使用。本文步驟面向希望把對話與推理儘量留在本地的部署方式,核心是 Text Completion → Ollama / Generic。


發佈日期:2026 年 3 月 23 日
最後更新:2026 年 3 月 23 日


最後更新: