Skip to content

STでOllamのエントリが見つかりませんか?

Silly Tavern最新版でOllamaが見つからない?ローカルモデル設定を3ステップで解決

Silly Tavern(現在の最新バージョン 1.16.0)は、セルフホスト自宅サーバーで動かすフロントエンドとして人気があり、Ollama・LM Studioと組み合わせればローカルLLMでチャット内容を端末内に閉じたプライベート運用(いわゆるオンプレミスローカルデプロイ)がしやすいツールです。アップデート後にOllamaやLM Studioの設定画面がどこにも見当たらないという声は、その分類整理の影響でよく出ます——消えたわけではなく、API接続画面のメインAPIAPI Typeの組み合わせが一段深くなっただけ。この記事で正しいルートを3ステップで案内します。

なぜOllamaの入口が見つからないの?

Silly Tavernの新バージョンでは、API接続画面の分類が変わりました。主な変更点は3つです:

1. メインAPIが2つのルートに分かれた

上部ツールバーのプラグアイコン(API Connections)をクリックすると、最初のドロップダウンがメインAPI(main_api)。OllamaとLM Studioが使うのは Text Completion(テキスト補完) のルート。最初に目が行きがちな Chat Completion(チャット補完) ではありません。ここを間違えると次の選択肢が出てこないので要注意。

2. LM Studioが単独で表示されなくなった

テキスト補完パネルの中で、LM StudioとLiteLLMなどが Generic (OpenAI-compatible) [LM Studio, LiteLLM, etc.] としてまとめられています。API Typeを開かないと見えません。

3. Ollamaは独立したAPIタイプ

Text Completionを選んだあと、API Type から Ollama を選ぶと、専用のAPI URLとOllamaモデルのドロップダウンが現れます。Chat Completionの中をいくら探しても見つからないのは仕様どおり。ルートを変えるだけでOKです。


3ステップで入口を見つける

ステップ1:メインAPIを「テキスト補完」に切り替える

上部のプラグアイコンをクリックしてAPI接続パネルを開き、最初のドロップダウンをChat CompletionからText Completionに変更します。

メインAPIをText Completionに切り替え

ステップ2:API TypeでOllamaを選ぶ

テキスト補完パネルが開いたら、API Type ドロップダウンから Ollama を選択。LM Studioを使う場合は Generic (OpenAI-compatible) [LM Studio, LiteLLM, etc.] を選びます。

Ollama APIタイプを選択

ステップ3:URLを入力してモデルを選び、接続

API URLに(ローカル機のデフォルトは http://127.0.0.1:11434)を入力して Connect をクリック。接続が成功するとOllamaモデルのドロップダウンにインストール済みのモデルが表示されるので、選択するだけです。

ローカルモデルを選択して実行


Ollamaの設定(ネイティブ方式・推奨)

ローカル環境の準備

Ollamaがインストール済みで起動中であることを確認して、ターミナルでモデルを取得します:

bash
# モデルを取得(llama3.2の例)
ollama pull llama3.2

# または直接実行(初回は自動ダウンロード)
ollama run qwen3.5:27b

Silly Tavernでの設定

設定項目入力内容
メインAPIText Completion
API TypeOllama
API URLhttp://127.0.0.1:11434
Ollamaモデルドロップダウンからインストール済みモデルを選択

なぜ汎用OpenAIインターフェースが使えないの? Ollamaは独自の /api/generate エンドポイントを使っており、OpenAIの /v1/chat/completions とは形式が違います。Generic OpenAIオプションに無理やり入れるとエラーになります。専用のOllamaタイプを使ってください。


LM Studioの設定(OpenAI互換方式)

LM Studioのローカルサーバーは OpenAI互換インターフェースを公開しているので、Ollamaタイプではなく Generic (OpenAI-compatible) を使います。

設定手順

設定項目入力内容
メインAPIText Completion
API TypeGeneric (OpenAI-compatible) [LM Studio, LiteLLM, etc.]
Server URLhttp://127.0.0.1:1234(LM Studioデフォルト)
API Keyローカル使用では通常空欄

LM StudioでモデルをロードしてLocal Serverを起動しておかないと、Silly Tavernから接続できません。


実機テスト:qwen3.5:0.8bはロールプレイに向いてる?

Ollamaを設定できたので、試しに qwen3.5:0.8b でロールプレイをテストしてみました——結果は予想外で:

qwen3.5:0.8b対話テスト——コードとシステムプロンプトのタグが混入

本来出てはいけないコードの断片やシステムプロンプトのタグが返答に混入してしまい、会話が成立しませんでした。このモデルは会話には向いていない印象です。0.8bというパラメータ数はロールプレイシナリオには小さすぎます。最低でも 7B以上 のモデルを使うことをお勧めします。スムーズなロールプレイ体験には 14Bや27B がより確実です。Qwen 3.5-27Bのレビュー記事で大きなパラメータ版の実際のパフォーマンスが確認できます。


参考リンク


著者について

花

花(Hana)

AI工具評価の専門家。東京・新宿三丁目周辺で活動し、最新のAIアプリケーションやツールを実際に使用してレビューを提供しています。


よくある質問(FAQ)

Q1:Connectをクリックしても反応がなく、エラーも出ない?

まずメインAPIが Text Completion になっているか確認してください——これが一番よくある見落としです。次にOllamaサービスが動いているか確認:ターミナルで ollama list を実行してモデル一覧が表示されれば正常です。LM Studioユーザーはローカルサーバーが起動していることを確認してください。

Q2:接続成功と表示されるのに、メッセージを送っても返答がない?

モデル名がOllama側と一致しているか確認してください。スペルが間違っているとサイレントに失敗します。また ストリーミング出力(Streaming) をオフにするか、コンテキスト長を下げることも試してみてください。パラメータの不一致でリクエストがハングすることがあります。

Q3:モデルの出力に変なコードやタグが混入するのはなぜ?

通常はモデルのパラメータ数が小さすぎることが原因です——0.8bのような超小型モデルはシステムプロンプトやフォーマットタグを出力に混入しやすく、instruction-followingを正しく処理できません。7B以上のモデルに変えることをお勧めします。ロールプレイシナリオには14Bまたは27Bがおすすめです。

Q4:Text CompletionとChat Completionの違いは?どちらが良い?

2つのインターフェースは並行して存在し、用途が異なります。OllamaとローカルモデルはText Completionを使い、OpenAI・ClaudeなどのクラウドAPIはChat Completionを使います。どちらが優れているというわけではなく、接続するサービスの種類に合わせて選ぶだけです。

Q5:スマホでローカルモデルは使える?

スマホ端末で大型モデルを直接動かすのは現実的ではありません。スマホでAIロールプレイを楽しみたい場合は MiniTavern を試してみてください——API Key(OpenRouterやDeepSeekなど)を設定するだけで使えます。自分でサーバーを立てる必要はありません。

Q6:Silly Tavernの「セルフホスト」とクラウドAPIの違いは?

セルフホストでは、PCや自宅サーバー上でSilly Tavern本体とOllama(またはLM Studio)を動かし、推論も会話ログも基本ローカルに残せます。クラウドのChat Completion(OpenAI等)はデータがベンダー側を経由するため、用途に応じて使い分けるのが一般的です。本記事の手順は、会話・推論をローカルに閉じる自前ホスティング向けで、Text Completion → Ollama/Generic の接続が中心です。


執筆日:2026年3月23日
最終更新:2026年3月23日


最終更新: