2.2 Configurar LLM (Avanzado)
No se necesita configuración por defecto. Puedes configurar modelos más potentes por separado para satisfacer preferencias más personales.
MiniTavern actualmente utiliza principalmente la clasificación LLM (Large Language Model), por lo que se llama Configurar LLM en la página de Configuración.
Configuración cero por defecto disponible
MiniTavern actualmente proporciona cuota gratuita y modelos configurados por defecto para nuevos usuarios.
Ahora puedes iniciar conversaciones sin configurar LLM, solo importa tarjetas de personajes. Si no estás satisfecho con el modelo de conversación predeterminado actual, puedes seleccionar otros modelos en la página Configurar LLM.
Verificar cuota
En la página de configuración, puedes verificar la cuota restante en el tipo de usuario y el área de cuota disponible debajo del nombre de usuario.
Modelo predeterminado
El modelo predeterminado configurado por MiniTavern es el modelo principal Grok. En la lista de modelos disponibles en la parte inferior de la página Configurar LLM, el modelo con una marca de verificación a la derecha es el modelo actualmente seleccionado.
Explicación de tarifas
Debido a problemas de costos, hemos establecido límites de tarifas para cada modelo. El (2x) en el subtítulo del modelo significa que cada solicitud consumirá 2x la cuota de solicitud.
Agregar tu propio LLM
Paso 1: Entrar a la página Configurar LLM
- Haz clic en la tercera pestaña "Configuración" en la barra de navegación inferior
- Selecciona "Configurar LLM"
Paso 2: Seleccionar proveedor de API
Haz clic en el menú desplegable "Proveedor", los proveedores disponibles incluyen:
- Nvidia
- OpenAI
- Anthropic
- Deepseek
- Tencent
- OpenRouter
- Other LLM (compatible con Ollama)
Paso 3: Ingresar clave API
- Pega tu clave API en el cuadro de entrada "API Key"
Paso 4: Seleccionar modelo
- Después de seleccionar el proveedor e ingresar la clave API, haz clic en el menú desplegable "Modelo" para cargar la lista de modelos disponibles
- Modelos recomendados:
- deepseek: Código abierto, bajo consumo
- gemini: Buenos resultados, alto consumo
Paso 5: Probar conexión
- Haz clic en el botón "Probar conexión"
- Espera los resultados de la prueba
- Éxito: Muestra "Prueba de conexión API exitosa"
- Fallo: Verifica la clave API y la conexión de red
Paso 6: Guardar configuración
- Después de una prueba exitosa, el botón "Guardar configuración" se vuelve clickeable
- Haz clic en guardar para completar la configuración
Ajustar configuración predeterminada del modelo
Paso: Cambiar a la pestaña Configuración predeterminada en la página Configurar LLM
Temperature
- Predeterminado: 1
- Rango: 0-2
Max Tokens
- Predeterminado: 4096
- Controla la longitud máxima de respuesta única de IA
- Nota: Valores más altos consumen más cuota de API, diferentes modelos tienen diferentes límites máximos
Habilitar streaming
- Predeterminado: Desactivado
- Cuando está habilitado, las respuestas de IA se muestran en tiempo real en lugar de esperar la respuesta completa
Nota
- Después de configurar, cada vez que inicies una nueva conversación, esta configuración predeterminada estará habilitada
Configuración de API personalizada (Avanzado)
Si seleccionaste "Other LLM":
Ingresar URL de LLM
- Ej.:
https://api.openai.com/v1 - Debe ser una interfaz API compatible con OpenAI
Obtener lista de modelos automáticamente
- Después de ingresar la clave API y la URL
- Haz clic en el botón de lista de modelos para obtener la lista de modelos disponibles
Privacidad y seguridad
- Las claves API solo se almacenan localmente en tu dispositivo
- Todas las solicitudes de API se envían directamente a tu proveedor de servicios de IA elegido
Nota
- Algunos proveedores de servicios restringen ciertas ubicaciones geográficas. Por ejemplo, el acceso a los modelos Gemini y Claude tiene restricciones geográficas para ciertos países. Si tu IP está en esta lista, el servicio no estará disponible