discourse-ai/config/locales/client.es.yml

319 lines
14 KiB
YAML
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# WARNING: Never edit this file.
# It will be overwritten when translations are pulled from Crowdin.
#
# To work with us on translations, join this project:
# https://translate.discourse.org/
es:
admin_js:
admin:
site_settings:
categories:
discourse_ai: "Discourse AI"
js:
discourse_automation:
scriptables:
llm_report:
fields:
sender:
label: "Remitente"
description: "El usuario que enviará el informe"
receivers:
label: "Receptores"
description: "Los usuarios que recibirán el informe (los correos electrónicos se enviarán directamente, los nombres de usuario se enviarán por MP)"
topic_id:
label: "ID del tema"
title:
label: "Título"
description: "El título del informe"
days:
label: "Días"
description: "El plazo del informe"
offset:
label: "Compensación"
description: "Cuando realices pruebas, es posible que quieras ejecutar el informe históricamente, utiliza la compensación para iniciar el informe en una fecha anterior"
instructions:
label: "Instrucciones"
description: "Las instrucciones proporcionadas al modelo de lenguaje grande"
sample_size:
label: "Tamaño de la muestra"
description: "El número de publicaciones que se van a muestrear para el informe"
tokens_per_post:
label: "Tokens por publicación"
model:
label: "Modelo"
description: "LLM a utilizar para la generación de informes"
categories:
label: "Categorías"
description: "Filtrar temas solo para esta categoría"
tags:
label: "Etiquetas"
description: "Filtrar temas solo para estas etiquetas"
exclude_tags:
label: "Excluir etiquetas"
description: "Excluir temas con estas etiquetas"
exclude_categories:
label: "Excluir categorías"
description: "Excluir temas con estas categorías"
allow_secure_categories:
label: "Permitir categorías seguras"
description: "Permitir que se genere el informe para temas en categorías seguras"
suppress_notifications:
label: "Suprimir notificaciones"
description: "Suprime las notificaciones que pueda generar el informe transformando a contenido. Esto reasignará las menciones y los enlaces internos."
debug_mode:
label: "Modo de depuración"
description: "Activa el modo de depuración para ver la entrada y salida brutas del LLM"
priority_group:
label: "Grupo prioritario"
description: "Priorizar el contenido de este grupo en el informe"
temperature:
label: "Temperatura"
top_p:
label: "Top P"
description: "Top P a utilizar para el LLM, aumentar para aumentar la aleatoriedad (0 para utilizar el modelo por defecto)"
llm_triage:
fields:
system_prompt:
label: "Aviso del sistema"
description: "El aviso que se utilizará para el triaje, asegúrate de que responda con una sola palabra que puedas utilizar para desencadenar la acción"
search_for_text:
label: "Buscar texto"
category:
label: "Categoría"
description: "Categoría para aplicar al tema"
tags:
label: "Etiquetas"
description: "Etiquetas para aplicar al tema"
canned_reply:
label: "Responder"
canned_reply_user:
label: "Responder al usuario"
description: "Nombre de usuario del usuario para publicar la respuesta enlatada"
hide_topic:
label: "Ocultar tema"
model:
label: "Modelo"
description: "Modelo lingüístico utilizado para el triaje"
discourse_ai:
title: "IA"
modals:
select_option: "Selecciona una opción..."
ai_persona:
back: "Atrás"
name: "Nombre"
edit: "Editar"
description: "Descripción"
no_llm_selected: "No se seleccionó ningún modelo de idioma"
max_context_posts_help: "El número máximo de mensajes a utilizar como contexto para la IA cuando responda a un usuario. (vacío por defecto)"
vision_enabled: Visión activada
vision_enabled_help: Si está activada, la IA intentará comprender las imágenes que los usuarios publiquen en el tema, depende del modelo que se utilice para soportar la visión. Compatible con los últimos modelos de Anthropic, Google y OpenAI.
vision_max_pixels: Tamaño de imagen admitido
tool_details_help: Mostrará a los usuarios finales detalles sobre qué herramientas ha activado el modelo de lenguaje.
mentionable_help: Si está activada, los usuarios de los grupos permitidos pueden mencionar a este usuario en sus mensajes, y la IA responderá como esta persona.
user: Usuario
create_user_help: Opcionalmente, puedes adjuntar un usuario a esta persona. Si lo haces, la IA utilizará a este usuario para responder a las solicitudes.
default_llm_help: El modelo de idioma por defecto que se utilizará para esta persona. Obligatorio si deseas mencionar a la persona en publicaciones públicas.
question_consolidator_llm: Modelo lingüístico para el consolidador de preguntas
question_consolidator_llm_help: El modelo lingüístico a utilizar para el consolidador de preguntas, puedes elegir un modelo menos potente para ahorrar costes.
save: "Guardar"
enabled: "¿Activado?"
allowed_groups: "Grupos permitidos"
confirm_delete: "¿Seguro que quieres eliminar esta persona?"
title: "Personas"
short_title: "Personas"
delete: "Eliminar"
temperature: "Temperatura"
top_p: "Top P"
top_p_help: "Top P a utilizar para el LLM, aumentar para aumentar la aleatoriedad (dejar vacío para utilizar el modelo por defecto, generalmente un valor de 0,0 a 1,0)"
priority: "Prioridad"
priority_help: "Las personas prioritarias se muestran a los usuarios en la parte superior de la lista de personas. Si varias personas tienen prioridad, se ordenarán alfabéticamente."
rag_conversation_chunks_help: "El número de fragmentos a utilizar para las búsquedas del modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA."
rag:
options:
rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)"
rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)"
uploads:
title: "Subidos"
filter: "Filtrar cargas"
indexed: "Indexado"
indexing: "Indexación"
uploaded: "Listo para ser indexado"
uploading: "Subiendo..."
remove: "Eliminar carga"
tools:
back: "Atrás"
short_title: "Herramientas"
name: "Nombre"
name_help: "El nombre único de la herramienta utilizado por el modelo lingüístico"
description: "Descripción"
description_help: "Una descripción clara de la finalidad de la herramienta para el modelo lingüístico"
summary: "Resumen"
summary_help: "Resumen de la finalidad de las herramientas que se mostrará a los usuarios finales"
script: "Script"
parameters: "Parámetros"
save: "Guardar"
add_parameter: "Añadir parámetro"
parameter_required: "Obligatorio"
parameter_enum: "Enumeración"
enum_value: "Valor de enumeración"
add_enum_value: "Añadir valor de enumeración"
edit: "Editar"
delete: "Eliminar"
saved: "Herramienta guardada"
presets: "Seleccione un preajuste..."
confirm_delete: "¿Seguro que quieres eliminar esta herramienta?"
next:
title: "Siguiente"
llms:
short_title: "LLM"
no_llms: "Aún no hay LLM"
display_name: "Nombre"
tokenizer: "Tokenizador"
max_prompt_tokens: "Número de tokens para la solicitud"
url: "URL del servicio que aloja el modelo"
api_key: "Clave API del servicio que aloja el modelo"
vision_enabled: "Visión activada"
save: "Guardar"
edit: "Editar"
back: "Atrás"
confirm_delete: '¿Seguro que quieres eliminar este modelo?'
delete: Eliminar
usage:
ai_summarization: "Resumir"
preconfigured_llms: "Selecciona tu LLM"
next:
title: "Siguiente"
tests:
running: "Ejecutando prueba..."
success: "Éxito!"
failure: "Al intentar contactar con la modelo, se devolvió este error: %{error}"
hints:
max_prompt_tokens: "Número máximo de tokens para el aviso. Como regla general, debe ser el 50 % de la ventana de contexto del modelo."
vision_enabled: "Si está activada, la IA intentará comprender las imágenes. Depende del modelo utilizado que soporte la visión. Compatible con los últimos modelos de Anthropic, Google y OpenAI."
providers:
aws_bedrock: "AWS Bedrock"
anthropic: "Anthropic"
vllm: "vLLM"
hugging_face: "Hugging Face"
cohere: "Cohere"
open_ai: "OpenAI"
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Personalizado"
related_topics:
pill: "Relacionados"
ai_helper:
title: "Sugerir cambios usando IA"
description: "Elige una de las opciones siguientes y la IA te propondrá una nueva versión del texto."
selection_hint: "Sugerencia: También puedes seleccionar una parte del texto antes de abrir el asistente para reescribir solo eso."
suggest: "Sugerir con IA"
missing_content: "Introduce algún contenido para generar sugerencias."
context_menu:
trigger: "Pregúntale a la IA"
loading: "La IA está generando"
cancel: "Cancelar"
regen: "Intentar de nuevo"
confirm: "Confirmar"
discard: "Descartar"
custom_prompt:
placeholder: "Introduzca un aviso personalizado..."
translate_prompt: "Traducir a %{language}"
post_options_menu:
trigger: "Pregúntale a la IA"
title: "Pregúntale a la IA"
loading: "La IA está generando"
close: "Cerrar"
copy: "Copiar"
copied: "¡Copiado!"
cancel: "Cancelar"
insert_footnote: "Añadir nota al pie de página"
footnote_credits: "Explicación por IA"
thumbnail_suggestions:
select: "Seleccionar"
selected: "Seleccionado"
image_caption:
button_label: "Subtítulo con IA"
generating: "Generando subtítulo..."
credits: "Subtitulado por IA"
save_caption: "Guardar"
automatic_caption_loading: "Subtitulando imágenes..."
automatic_caption_dialog:
confirm: "Activar"
cancel: "No volver a preguntar"
reviewables:
model_used: "Modelo utilizado:"
accuracy: "Precisión:"
embeddings:
semantic_search: "Temas (semánticos)"
semantic_search_loading: "Buscando más resultados usando IA"
semantic_search_results:
toggle: "Mostrando %{count} resultados encontrados usando IA"
toggle_hidden: "Ocultando %{count} resultados encontrados usando IA"
none: "Lo sentimos, nuestra búsqueda mediante IA no ha encontrado temas coincidentes"
ai_generated_result: "Resultado de búsqueda encontrado mediante IA"
quick_search:
suffix: "en todos los temas y publicaciones con IA"
ai_bot:
pm_warning: "Los moderadores supervisan periódicamente los mensajes del chatbot de IA."
cancel_streaming: "Detener respuesta"
default_pm_prefix: "[MP de bot de IA sin título]"
shortcut_title: "Iniciar un MP con un bot de IA"
share: "Copiar conversación de IA"
conversation_shared: "Conversación copiada"
debug_ai: "Ver solicitud y respuesta de IA sin procesar"
debug_ai_modal:
title: "Ver la interacción con la IA"
copy_request: "Copiar solicitud"
copy_response: "Copiar respuesta"
request_tokens: "Tokens de solicitud:"
response_tokens: "Tokens de respuesta:"
request: "Solicitud"
response: "Respuesta"
next_log: "Siguiente"
previous_log: "Anterior"
share_ai_conversation:
name: "Compartir conversación de IA"
title: "Compartir esta conversación de IA públicamente"
ai_label: "IA"
ai_title: "Conversación con IA"
share_modal:
title: "Copiar conversación de IA"
copy: "Copiar"
context: "Interacciones para compartir:"
share_tip: "También puedes compartir toda la conversación"
bot_names:
fake: "Bot de prueba falso"
claude-3-opus: "Claude 3 Opus"
claude-3-sonnet: "Claude 3 Sonnet"
claude-3-haiku: "Claude 3 Haiku"
cohere-command-r-plus: "Cohere Command R Plus"
gpt-4: "GPT-4"
gpt-4-turbo: "GPT-4 Turbo"
gpt-4o: "GPT-4 Omni"
gpt-3:
5-turbo: "GPT-3.5"
claude-2: "Claude 2"
gemini-1:
5-pro: "Gemini"
mixtral-8x7B-Instruct-V0:
"1": "Mixtral-8x7B V0.1"
sentiments:
dashboard:
title: "Sentiment"
summarization:
chat:
title: "Resumir mensajes"
description: "Selecciona una opción a continuación para resumir la conversación enviada durante el periodo de tiempo deseado."
summarize: "Resumir"
since:
one: "Última hora"
other: "Últimas %{count} horas"
review:
types:
reviewable_ai_post:
title: "Publicación denunciada por IA"
reviewable_ai_chat_message:
title: "Mensaje de chat denunciado por IA"