2.2 Configurer LLM (Avancé)
Aucune configuration nécessaire par défaut. Vous pouvez configurer des modèles plus puissants séparément pour répondre à des préférences plus personnelles.
MiniTavern utilise actuellement principalement la classification LLM (Large Language Model), c'est pourquoi elle s'appelle Configurer LLM dans la page Paramètres.
Configuration zéro par défaut disponible
MiniTavern fournit actuellement un quota gratuit et des modèles configurés par défaut pour les nouveaux utilisateurs.
Maintenant, vous pouvez commencer des conversations sans configurer LLM, importez simplement des cartes de personnages. Si vous n'êtes pas satisfait du modèle de conversation par défaut actuel, vous pouvez sélectionner d'autres modèles sur la page Configurer LLM.
Vérifier le quota
Dans la page des paramètres, vous pouvez vérifier le quota restant dans le type d'utilisateur et la zone de quota disponible sous le nom d'utilisateur.
Modèle par défaut
Le modèle par défaut configuré par MiniTavern est le modèle grand public Grok. Dans la liste des modèles disponibles en bas de la page Configurer LLM, le modèle avec une coche à droite est le modèle actuellement sélectionné.
Explication du tarif
En raison de problèmes de coût, nous avons défini des limites de tarif pour chaque modèle. Le (2x) dans le sous-titre du modèle signifie que chaque demande consommera 2x le quota de demande.
Ajouter votre propre LLM
Étape 1 : Accéder à la page Configurer LLM
- Cliquez sur le troisième onglet "Paramètres" dans la barre de navigation inférieure
- Sélectionnez "Configurer LLM"
Étape 2 : Sélectionner le fournisseur API
Cliquez sur le menu déroulant "Fournisseur", les fournisseurs disponibles incluent :
- Nvidia
- OpenAI
- Anthropic
- Deepseek
- Tencent
- OpenRouter
- Other LLM (compatible avec Ollama)
Étape 3 : Entrer la clé API
- Collez votre clé API dans la zone de saisie "API Key"
Étape 4 : Sélectionner le modèle
- Après avoir sélectionné le fournisseur et entré la clé API, cliquez sur le menu déroulant "Modèle" pour charger la liste des modèles disponibles
- Modèles recommandés :
- deepseek : Open source, faible consommation
- gemini : Bons résultats, consommation élevée
Étape 5 : Tester la connexion
- Cliquez sur le bouton "Tester la connexion"
- Attendez les résultats du test
- Succès : Affiche "Test de connexion API réussi"
- Échec : Vérifiez la clé API et la connexion réseau
Étape 6 : Enregistrer les paramètres
- Après un test réussi, le bouton "Enregistrer les paramètres" devient cliquable
- Cliquez sur enregistrer pour terminer la configuration
Ajuster les paramètres par défaut du modèle
Étape : Passer à l'onglet Paramètres par défaut sur la page Configurer LLM
Temperature
- Par défaut : 1
- Plage : 0-2
Max Tokens
- Par défaut : 4096
- Contrôle la longueur maximale de la réponse unique de l'IA
- Remarque : Des valeurs plus élevées consomment plus de quota API, différents modèles ont des limites maximales différentes
Activer le streaming
- Par défaut : Désactivé
- Lorsqu'il est activé, les réponses de l'IA sont affichées en temps réel au lieu d'attendre la réponse complète
Remarque
- Après le réglage, chaque fois que vous démarrez une nouvelle conversation, ces paramètres par défaut seront activés
Configuration API personnalisée (Avancé)
Si vous avez sélectionné "Other LLM" :
Entrer l'URL LLM
- Ex. :
https://api.openai.com/v1 - Doit être une interface API compatible OpenAI
Obtenir automatiquement la liste des modèles
- Après avoir entré la clé API et l'URL
- Cliquez sur le bouton de liste de modèles pour obtenir la liste des modèles disponibles
Confidentialité et sécurité
- Les clés API sont uniquement stockées localement sur votre appareil
- Toutes les demandes API sont envoyées directement à votre fournisseur de services IA choisi
Remarque
- Certains fournisseurs de services restreignent certaines localisations géographiques. Par exemple, l'accès aux modèles Gemini et Claude a des restrictions géographiques pour certains pays. Si votre IP est sur cette liste, le service sera indisponible