description:"Cuando realices pruebas, es posible que quieras ejecutar el informe históricamente, utiliza la compensación para iniciar el informe en una fecha anterior"
instructions:
label:"Instrucciones"
description:"Las instrucciones proporcionadas al modelo de lenguaje grande"
sample_size:
label:"Tamaño de la muestra"
description:"El número de publicaciones que se van a muestrear para el informe"
tokens_per_post:
label:"Tokens por publicación"
description:"La cantidad de tokens llm que se usarán por publicación"
model:
label:"Modelo"
description:"LLM a utilizar para la generación de informes"
no_llm_selected:"No se seleccionó ningún modelo de idioma"
max_context_posts:"Número máximo de publicaciones contextuales"
max_context_posts_help:"El número máximo de mensajes a utilizar como contexto para la IA cuando responda a un usuario. (vacío por defecto)"
vision_enabled:Visión activada
vision_enabled_help:Si está activada, la IA intentará comprender las imágenes que los usuarios publiquen en el tema, depende del modelo que se utilice para soportar la visión. Compatible con los últimos modelos de Anthropic, Google y OpenAI.
vision_max_pixels:Tamaño de imagen admitido
vision_max_pixel_sizes:
low: 'Baja calidad:más barato (256x256)'
medium:Calidad media (512x512)
high: 'Alta calidad:más lento (1024x1024)'
tool_details:Mostrar detalles de la herramienta
tool_details_help:Mostrará a los usuarios finales detalles sobre qué herramientas ha activado el modelo de lenguaje.
mentionable:Permitir menciones
mentionable_help:Si está activada, los usuarios de los grupos permitidos pueden mencionar a este usuario en sus mensajes, y la IA responderá como esta persona.
create_user_help:Opcionalmente, puedes adjuntar un usuario a esta persona. Si lo haces, la IA utilizará a este usuario para responder a las solicitudes.
default_llm:Modelo lingüístico por defecto
default_llm_help:El modelo de idioma por defecto que se utilizará para esta persona. Obligatorio si deseas mencionar a la persona en publicaciones públicas.
question_consolidator_llm:Modelo lingüístico para el consolidador de preguntas
question_consolidator_llm_help:El modelo lingüístico a utilizar para el consolidador de preguntas, puedes elegir un modelo menos potente para ahorrar costes.
temperature_help:Temperatura a utilizar para el LLM, aumentar para aumentar la creatividad (dejar vacío para utilizar el modelo por defecto, generalmente un valor de 0,0 a 2,0)
top_p:Top P
top_p_help:Top P a utilizar para el LLM, aumentar para aumentar la aleatoriedad (dejar vacío para utilizar el modelo por defecto, generalmente un valor de 0,0 a 1,0)
priority_help:Las personas prioritarias se muestran a los usuarios en la parte superior de la lista de personas. Si varias personas tienen prioridad, se ordenarán alfabéticamente.
rag_conversation_chunks:"Buscar fragmentos de conversación"
rag_conversation_chunks_help:"El número de fragmentos a utilizar para las búsquedas del modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA."
what_are_personas:"¿Qué son las Personas de IA?"
no_persona_selected:|
Personas de IA es una potente función que te permite personalizar el comportamiento del motor de IA en tu foro de Discourse. Actúan como un «mensaje del sistema» que guía las respuestas e interacciones de la IA, ayudando a crear una experiencia de usuario más personalizada y atractiva.
#### ¿Por qué utilizar Personas de IA?
Con Personas de IA, puedes adaptar el comportamiento de la IA para que se ajuste mejor al contexto y al tono de tu foro. Si quieres que la IA sea más formal para un entorno profesional, más informal para un foro comunitario, o incluso que encarne a un personaje específico para un juego de rol, Personas de IA te da la flexibilidad para hacerlo.
#### Acceso específico de grupo a Personas de IA
Además, puedes configurarlo para que determinados grupos de usuarios tengan acceso a personas concretas. Esto significa que puedes tener diferentes comportamientos de IA para diferentes secciones de tu foro, mejorando aún más la diversidad y riqueza de las interacciones de tu comunidad.
rag_chunk_tokens_help:"El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)"
rag_chunk_overlap_tokens:"Cargar tokens de solapamiento de fragmentos"
rag_chunk_overlap_tokens_help:"El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)"
failure:"Al intentar contactar con la modelo, se devolvió este error: %{error}"
hints:
max_prompt_tokens:"Número máximo de tokens para el aviso. Como regla general, debe ser el 50% de la ventana de contexto del modelo."
name:"Lo incluimos en la llamada a la API para especificar qué modelo vamos a utilizar."
vision_enabled:"Si está activada, la IA intentará comprender las imágenes. Depende del modelo utilizado que soporte la visión. Compatible con los últimos modelos de Anthropic, Google y OpenAI."
prompt:"Esta publicación contiene imágenes sin subtítulos. ¿Te gustaría activar los subtítulos automáticos de IA en las imágenes subidas? (Puedes cambiarlo en tus preferencias más adelante)"