2.2 LLM の設定(高度)
デフォルトでは設定は不要です。より個人の好みに合わせて、より強力なモデルを個別に設定できます。
MiniTavern は現在、主に LLM (Large Language Model: 大規模言語モデル) の分類を使用しているため、「設定」 ページでは 「LLM の設定」 と呼ばれています。
デフォルトでゼロ設定で使用可能
MiniTavern は現在、新規ユーザー向けに無料枠とデフォルト設定のモデルを提供しています。
LLM を設定しなくても、キャラクターカードをインポートするだけで会話を開始できます。現在のデフォルトの会話モデルに満足できない場合は、LLM の設定 ページで他のモデルを選択できます。
枠の確認
設定ページでは、ユーザー名の下にあるユーザータイプと利用可能な枠のエリアで、残りの枠を確認できます。
デフォルトモデル
MiniTavern が設定しているデフォルトモデルは Grok の主流モデルです。「LLM の設定」ページの下部にある利用可能なモデルリストで、右側にチェックマークがついているモデルが現在選択されているモデルです。
レートの説明
コストの問題により、各モデルにレート制限を設けています。モデルのサブタイトルにある (2x) は、1回のリクエストでリクエスト枠を2倍消費することを意味します。
独自の LLM を追加する
ステップ 1:「LLM の設定」ページに入る
- 下部のナビゲーションバーにある3番目のタブ 「設定」 をクリックします
- 「LLM の設定」 を選択します
ステップ 2:API プロバイダーを選択する
「プロバイダー」 ドロップダウンメニューをクリックします。利用可能なプロバイダーは以下の通りです:
- Nvidia
- OpenAI
- Anthropic
- Deepseek
- Tencent
- OpenRouter
- その他の LLM(Ollama と互換性あり)
ステップ 3:API Key を入力する
- 「API Key」 入力ボックスに API Key を貼り付けます
ステップ 4:モデルを選択する
- プロバイダーを選択し、API Key を入力した後、「モデル」 ドロップダウンメニューをクリックして、利用可能なモデルリストを読み込みます
- 推奨モデル:
- deepseek: オープンソース、低消費電力
- gemini: 良好な結果、高消費電力
ステップ 5:接続テスト
- 「接続テスト」 ボタンをクリックします
- テスト結果を待ちます
- 成功:「API 接続テストに成功しました」と表示されます
- 失敗:API Key とネットワーク接続を確認してください
ステップ 6:設定を保存
- テストに成功すると、「設定を保存」 ボタンがクリック可能になります
- 「保存」をクリックして設定を完了します
モデルのデフォルト設定を調整する
ステップ:「LLM の設定」ページの「デフォルト設定」タブに切り替えます
Temperature
- デフォルト:1
- 範囲:0-2
Max Tokens
- デフォルト:4096
- AI の1回の応答の最大長を制御します
- 注意:値を高くすると API 枠をより多く消費します。モデルによって最大制限が異なります
ストリーミングを有効にする
- デフォルト:オフ
- 有効にすると、AI の応答が完了を待たずにリアルタイムで表示されます
注意
- 設定後、新しく会話を開始するたびに、これらのデフォルト設定が有効になります
カスタム API 設定(高度)
「その他の LLM」 を選択した場合:
LLM URL を入力
- 例:
https://api.openai.com/v1 - OpenAI 互換の API インターフェースである必要があります
モデルリストを自動取得
- API Key と URL を入力した後
- モデルリストボタンをクリックして、利用可能なモデルリストを取得します
プライバシーとセキュリティ
- API Key はデバイスのローカルにのみ保存されます
- すべての API リクエストは、選択した AI サービスプロバイダーに直接送信されます
注意
- 一部のサービスプロバイダーは、特定の地域を制限しています。たとえば、Gemini や Claude のモデルアクセスには、特定の国に対する地理的な制限があります。IP がこのリストにある場合、サービスは利用できません