Skip to content

2.2 LLM の設定(高度)

デフォルトでは設定は不要です。より個人の好みに合わせて、より強力なモデルを個別に設定できます。

MiniTavern は現在、主に LLM (Large Language Model: 大規模言語モデル) の分類を使用しているため、「設定」 ページでは 「LLM の設定」 と呼ばれています。

デフォルトでゼロ設定で使用可能

MiniTavern は現在、新規ユーザー向けに無料枠とデフォルト設定のモデルを提供しています。

LLM を設定しなくても、キャラクターカードをインポートするだけで会話を開始できます。現在のデフォルトの会話モデルに満足できない場合は、LLM の設定 ページで他のモデルを選択できます。

枠の確認

設定ページでは、ユーザー名の下にあるユーザータイプと利用可能な枠のエリアで、残りの枠を確認できます。

デフォルトモデル

MiniTavern が設定しているデフォルトモデルは Grok の主流モデルです。「LLM の設定」ページの下部にある利用可能なモデルリストで、右側にチェックマークがついているモデルが現在選択されているモデルです。

レートの説明

コストの問題により、各モデルにレート制限を設けています。モデルのサブタイトルにある (2x) は、1回のリクエストでリクエスト枠を2倍消費することを意味します。

独自の LLM を追加する

ステップ 1:「LLM の設定」ページに入る

  • 下部のナビゲーションバーにある3番目のタブ 「設定」 をクリックします
  • 「LLM の設定」 を選択します

ステップ 2:API プロバイダーを選択する

「プロバイダー」 ドロップダウンメニューをクリックします。利用可能なプロバイダーは以下の通りです:

  • Nvidia
  • OpenAI
  • Anthropic
  • Google
  • Deepseek
  • Tencent
  • OpenRouter
  • その他の LLM(Ollama と互換性あり)

ステップ 3:API Key を入力する

  • 「API Key」 入力ボックスに API Key を貼り付けます

ステップ 4:モデルを選択する

  • プロバイダーを選択し、API Key を入力した後、「モデル」 ドロップダウンメニューをクリックして、利用可能なモデルリストを読み込みます
  • 推奨モデル:
    • deepseek: オープンソース、低消費電力
    • gemini: 良好な結果、高消費電力

ステップ 5:接続テスト

  • 「接続テスト」 ボタンをクリックします
  • テスト結果を待ちます
  • 成功:「API 接続テストに成功しました」と表示されます
  • 失敗:API Key とネットワーク接続を確認してください

ステップ 6:設定を保存

  • テストに成功すると、「設定を保存」 ボタンがクリック可能になります
  • 「保存」をクリックして設定を完了します

モデルのデフォルト設定を調整する

ステップ:「LLM の設定」ページの「デフォルト設定」タブに切り替えます

Temperature

  • デフォルト:1
  • 範囲:0-2

Max Tokens

  • デフォルト:4096
  • AI の1回の応答の最大長を制御します
  • 注意:値を高くすると API 枠をより多く消費します。モデルによって最大制限が異なります

ストリーミングを有効にする

  • デフォルト:オフ
  • 有効にすると、AI の応答が完了を待たずにリアルタイムで表示されます

注意

  • 設定後、新しく会話を開始するたびに、これらのデフォルト設定が有効になります

カスタム API 設定(高度)

「その他の LLM」 を選択した場合:

LLM URL を入力

  • 例:https://api.openai.com/v1
  • OpenAI 互換の API インターフェースである必要があります

モデルリストを自動取得

  • API Key と URL を入力した後
  • モデルリストボタンをクリックして、利用可能なモデルリストを取得します

プライバシーとセキュリティ

  • API Key はデバイスのローカルにのみ保存されます
  • すべての API リクエストは、選択した AI サービスプロバイダーに直接送信されます

注意

  • 一部のサービスプロバイダーは、特定の地域を制限しています。たとえば、Gemini や Claude のモデルアクセスには、特定の国に対する地理的な制限があります。IP がこのリストにある場合、サービスは利用できません