Update translations (#814)
This commit is contained in:
parent
7325fb21ab
commit
7ae6c17236
|
@ -135,8 +135,6 @@ ar:
|
|||
question_consolidator_llm: نموذج اللغة لتوحيد الأسئلة
|
||||
question_consolidator_llm_help: نموذج اللغة الذي سيتم استخدامه لتوحيد الأسئلة، يمكنك اختيار نموذج أقل قوة للتوفير في التكاليف.
|
||||
system_prompt: رسالة مطالبة النظام
|
||||
show_indexing_options: "إظهار خيارات التحميل"
|
||||
hide_indexing_options: "إخفاء خيارات التحميل"
|
||||
allow_chat: "السماح بالدردشة"
|
||||
allow_chat_help: "إذا تم التفعيل، يمكن للمستخدمين في المجموعات المسموح بها إرسال رسالة مباشرة إلى هذه الشخصية"
|
||||
save: حفظ
|
||||
|
@ -156,10 +154,6 @@ ar:
|
|||
priority: الأولوية
|
||||
priority_help: يتم عرض الشخصيات ذات الأولوية للمستخدمين في أعلى قائمة الشخصيات. إذا كانت الأولوية لعدة أشخاص، فسيتم فرزهم أبجديًا.
|
||||
tool_options: "خيارات الأداة"
|
||||
rag_chunk_tokens: "تحميل أجزاء الرموز"
|
||||
rag_chunk_tokens_help: "عدد الرموز المميزة التي سيتم استخدامها لكل جزء في نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
|
||||
rag_chunk_overlap_tokens: "تحميل أجزاء الرموز المتداخلة"
|
||||
rag_chunk_overlap_tokens_help: "عدد الرموز المميزة التي ستتداخل بين الأجزاء في نموذج RAG. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
|
||||
rag_conversation_chunks: "البحث في أجزاء المحادثة"
|
||||
rag_conversation_chunks_help: "عدد الأجزاء التي سيتم استخدامها لإي عمليات البحث ضمن نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة."
|
||||
what_are_personas: "ما هي شخصيات الذكاء الاصطناعي؟"
|
||||
|
@ -173,9 +167,16 @@ ar:
|
|||
#### وصول خاص بالمجموعة إلى شخصيات الذكاء الاصطناعي
|
||||
|
||||
علاوةً على ذلك، يمكنك إعداده بحيث تتمكن مجموعات معيَّنة من المستخدمين من الوصول إلى أشخاص محدَّدين. وهذا يعني أنه يمكنك الحصول على سلوكيات مختلفة للذكاء الاصطناعي لأقسام مختلفة في المنتدى الخاص بك، ما يزيد من تعزيز تنُّوع مجتمعك وثراء تفاعلاته.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "تحميل أجزاء الرموز"
|
||||
rag_chunk_tokens_help: "عدد الرموز المميزة التي سيتم استخدامها لكل جزء في نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
|
||||
rag_chunk_overlap_tokens: "تحميل أجزاء الرموز المتداخلة"
|
||||
rag_chunk_overlap_tokens_help: "عدد الرموز المميزة التي ستتداخل بين الأجزاء في نموذج RAG. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
|
||||
show_indexing_options: "إظهار خيارات التحميل"
|
||||
hide_indexing_options: "إخفاء خيارات التحميل"
|
||||
uploads:
|
||||
title: "التحميلات"
|
||||
description: "ستكون شخصية الذكاء الاصطناعي الخاصة بك قادرة على البحث والإشارة إلى محتوى الملفات المضمَّنة. يجب تنسيق الملفات التي تم تحميلها بتنسيق plaintext (.txt) أو markdown (.md)."
|
||||
button: "إضافة الملفات"
|
||||
filter: "تصفية التحميلات"
|
||||
indexed: "تمت الفهرسة"
|
||||
|
@ -219,9 +220,7 @@ ar:
|
|||
short_title: "نماذج اللغة الكبيرة"
|
||||
no_llms: "لا توجد نماذج لغة كبيرة بعد"
|
||||
new: "نموذج جديد"
|
||||
display_name: "الاسم المراد عرضه"
|
||||
name: "اسم النموذج"
|
||||
provider: "خدمة استضافة النموذج"
|
||||
display_name: "الاسم"
|
||||
tokenizer: "أداة الترميز"
|
||||
max_prompt_tokens: "عدد الرموز المميزة لرسالة المطالبة"
|
||||
url: "عنوان URL لخدمة استضافة النموذج"
|
||||
|
@ -236,8 +235,6 @@ ar:
|
|||
confirm_delete: هل تريد بالتأكيد حذف هذا النموذج؟
|
||||
delete: حذف
|
||||
preconfigured_llms: "حدِّد نموذج اللغة الكبير الخاص بك"
|
||||
preconfigured:
|
||||
none: "قم بالتكوين يدويًا..."
|
||||
next:
|
||||
title: "التالي"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ ar:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "مخصَّصة"
|
||||
provider_fields:
|
||||
access_key_id: "معرِّف مفتاح الوصول إلى AWS Bedrock"
|
||||
region: "منطقة AWS Bedrock"
|
||||
|
|
|
@ -35,6 +35,7 @@ be:
|
|||
user: карыстальнік
|
||||
save: Захаваць
|
||||
delete: выдаляць
|
||||
rag:
|
||||
uploads:
|
||||
title: "Загрузкі"
|
||||
uploading: "Запампоўванне ..."
|
||||
|
@ -50,6 +51,7 @@ be:
|
|||
next:
|
||||
title: "Далей"
|
||||
llms:
|
||||
display_name: "імя"
|
||||
save: "Захаваць"
|
||||
edit: "рэдагаваць"
|
||||
back: "Назад"
|
||||
|
|
|
@ -38,6 +38,7 @@ bg:
|
|||
save: Запази
|
||||
enabled: "Да е включен?"
|
||||
delete: Изтрий
|
||||
rag:
|
||||
uploads:
|
||||
uploading: "Качва се..."
|
||||
tools:
|
||||
|
@ -52,6 +53,7 @@ bg:
|
|||
next:
|
||||
title: "Напред"
|
||||
llms:
|
||||
display_name: "Име"
|
||||
save: "Запази "
|
||||
edit: "Редактирай"
|
||||
back: "Назад"
|
||||
|
@ -60,6 +62,7 @@ bg:
|
|||
title: "Напред"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "По избор"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Прекрати"
|
||||
|
|
|
@ -38,6 +38,7 @@ bs_BA:
|
|||
save: Save
|
||||
enabled: "Omogućen?"
|
||||
delete: Delete
|
||||
rag:
|
||||
uploads:
|
||||
title: "Uploads"
|
||||
uploading: "Učitavanje..."
|
||||
|
@ -56,6 +57,7 @@ bs_BA:
|
|||
test_modal:
|
||||
run: "Pokreni test"
|
||||
llms:
|
||||
display_name: "Ime"
|
||||
save: "Save"
|
||||
edit: "Edit"
|
||||
back: "Prethodno"
|
||||
|
@ -67,6 +69,7 @@ bs_BA:
|
|||
success: "Uspjeh!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Custom"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Odustani"
|
||||
|
|
|
@ -38,6 +38,7 @@ ca:
|
|||
save: Desa
|
||||
enabled: "Activat?"
|
||||
delete: Suprimeix
|
||||
rag:
|
||||
uploads:
|
||||
title: "Càrregues"
|
||||
uploading: "Carregant..."
|
||||
|
@ -56,6 +57,7 @@ ca:
|
|||
test_modal:
|
||||
run: "Executa el test"
|
||||
llms:
|
||||
display_name: "Nom"
|
||||
save: "Desa"
|
||||
edit: "Edita"
|
||||
back: "Enrere"
|
||||
|
@ -67,6 +69,7 @@ ca:
|
|||
success: "Èxit!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Personalitzat"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Cancel·la"
|
||||
|
|
|
@ -38,6 +38,7 @@ cs:
|
|||
save: Uložit
|
||||
enabled: "Zapnuto?"
|
||||
delete: Smazat
|
||||
rag:
|
||||
uploads:
|
||||
title: "Nahrané soubory"
|
||||
uploading: "Nahrává se..."
|
||||
|
@ -56,6 +57,7 @@ cs:
|
|||
test_modal:
|
||||
run: "Spustit test"
|
||||
llms:
|
||||
display_name: "Jméno"
|
||||
save: "Uložit"
|
||||
edit: "Upravit"
|
||||
back: "Zpět"
|
||||
|
@ -67,6 +69,7 @@ cs:
|
|||
success: "Úspěch!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Přizpůsobené"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Zrušit"
|
||||
|
|
|
@ -38,6 +38,7 @@ da:
|
|||
save: Gem
|
||||
enabled: "Aktiveret?"
|
||||
delete: Slet
|
||||
rag:
|
||||
uploads:
|
||||
title: "Overførsler"
|
||||
uploading: "Overfører…"
|
||||
|
@ -56,6 +57,7 @@ da:
|
|||
test_modal:
|
||||
run: "Kør test"
|
||||
llms:
|
||||
display_name: "Navn"
|
||||
save: "Gem"
|
||||
edit: "Rediger"
|
||||
back: "Tilbage"
|
||||
|
@ -67,6 +69,7 @@ da:
|
|||
success: "Succes!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Tilpasset"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Annuller"
|
||||
|
|
|
@ -140,8 +140,6 @@ de:
|
|||
question_consolidator_llm: Sprachmodell für Fragenkonsolidierer
|
||||
question_consolidator_llm_help: Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen.
|
||||
system_prompt: System-Eingabeaufforderung
|
||||
show_indexing_options: "Upload-Optionen anzeigen"
|
||||
hide_indexing_options: "Upload-Optionen ausblenden"
|
||||
allow_chat: "Chat zulassen"
|
||||
allow_chat_help: "Wenn diese Option aktiviert ist, können Nutzer in erlaubten Gruppen dieser Persona eine DN senden"
|
||||
save: Speichern
|
||||
|
@ -161,10 +159,6 @@ de:
|
|||
priority: Priorität
|
||||
priority_help: Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert.
|
||||
tool_options: "Tool-Optionen"
|
||||
rag_chunk_tokens: "Chunk-Token hochladen"
|
||||
rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
|
||||
rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen"
|
||||
rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
|
||||
rag_conversation_chunks: "Suchunterhaltungs-Chunks"
|
||||
rag_conversation_chunks_help: "Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann."
|
||||
what_are_personas: "Was sind KI-Personas?"
|
||||
|
@ -178,9 +172,17 @@ de:
|
|||
#### Gruppenspezifischer Zugriff auf KI-Personas
|
||||
|
||||
Außerdem kannst du die Funktion so einrichten, dass bestimmte Nutzergruppen Zugriff auf gewisse Personas haben. Das bedeutet, dass du für verschiedene Bereiche deines Forums unterschiedliche KI-Verhaltensweisen verwenden kannst, was die Vielfalt und Fülle der Interaktionen deiner Community weiter verbessert.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Chunk-Token hochladen"
|
||||
rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
|
||||
rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen"
|
||||
rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
|
||||
show_indexing_options: "Upload-Optionen anzeigen"
|
||||
hide_indexing_options: "Upload-Optionen ausblenden"
|
||||
uploads:
|
||||
title: "Uploads"
|
||||
description: "Deine KI-Persona wird in der Lage sein, den Inhalt der beigefügten Dateien zu durchsuchen und zu referenzieren. Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein."
|
||||
description: "Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein."
|
||||
button: "Dateien hinzufügen"
|
||||
filter: "Uploads filtern"
|
||||
indexed: "Indiziert"
|
||||
|
@ -224,9 +226,9 @@ de:
|
|||
short_title: "LLM"
|
||||
no_llms: "Noch keine LLM"
|
||||
new: "Neues Modell"
|
||||
display_name: "Anzeigename"
|
||||
name: "Modellname"
|
||||
provider: "Dienst, der das Modell hostet"
|
||||
display_name: "Name"
|
||||
name: "Modell-ID"
|
||||
provider: "Anbieter"
|
||||
tokenizer: "Tokenizer"
|
||||
max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung"
|
||||
url: "URL des Dienstes, der das Modell hostet"
|
||||
|
@ -244,9 +246,25 @@ de:
|
|||
in_use_warning:
|
||||
one: "Dieses Modell wird derzeit von der Einstellung %{settings} verwendet. Wenn die Funktion falsch konfiguriert ist, funktioniert sie nicht wie erwartet."
|
||||
other: "Dieses Modell wird derzeit von den folgenden Einstellungen verwendet: %{settings}. Bei einer falschen Konfiguration funktionieren die Funktionen nicht wie erwartet. "
|
||||
model_description:
|
||||
none: "Allgemeine Einstellungen, die für die meisten Sprachmodelle funktionieren"
|
||||
anthropic-claude-3-5-sonnet: "Das intelligenteste Modell der Anthropologie"
|
||||
anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben"
|
||||
anthropic-claude-3-sonnet: "Ausgewogenheit zwischen Geschwindigkeit und Intelligenz"
|
||||
anthropic-claude-3-haiku: "Schnell und kosteneffizient"
|
||||
google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann"
|
||||
google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation"
|
||||
open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation"
|
||||
open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben"
|
||||
open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben"
|
||||
configured:
|
||||
title: "Konfigurierte LLMs"
|
||||
preconfigured_llms: "Wähle dein LLM"
|
||||
preconfigured:
|
||||
none: "Manuell konfigurieren …"
|
||||
title_no_llms: "Wähle eine Vorlage aus, um loszulegen"
|
||||
title: "Unkonfigurierte LLM-Vorlagen"
|
||||
fake: "Manuelle Konfiguration"
|
||||
button: "Einrichten"
|
||||
next:
|
||||
title: "Nächstes"
|
||||
tests:
|
||||
|
@ -270,6 +288,7 @@ de:
|
|||
ollama: "Ollama"
|
||||
CDCK: "CDCK"
|
||||
samba_nova: "SambaNova"
|
||||
fake: "Benutzerdefiniert"
|
||||
provider_fields:
|
||||
access_key_id: "AWS-Bedrock-Zugangsschlüssel-ID"
|
||||
region: "AWS-Bedrock-Region"
|
||||
|
|
|
@ -38,6 +38,7 @@ el:
|
|||
save: Αποθήκευση
|
||||
enabled: "Ενεργοποιημένο;"
|
||||
delete: Σβήσιμο
|
||||
rag:
|
||||
uploads:
|
||||
title: "Μεταφορτώσεις"
|
||||
uploading: "Επιφόρτωση..."
|
||||
|
@ -56,6 +57,7 @@ el:
|
|||
test_modal:
|
||||
run: "Εκτέλεση δοκιμής"
|
||||
llms:
|
||||
display_name: "Όνομα"
|
||||
save: "Αποθήκευση"
|
||||
edit: "Επεξεργασία"
|
||||
back: "Πίσω"
|
||||
|
@ -67,6 +69,7 @@ el:
|
|||
success: "Επιτυχία!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Προσαρμοσμένο"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Ακύρωση"
|
||||
|
|
|
@ -135,8 +135,6 @@ es:
|
|||
question_consolidator_llm: Modelo lingüístico para el consolidador de preguntas
|
||||
question_consolidator_llm_help: El modelo lingüístico a utilizar para el consolidador de preguntas, puedes elegir un modelo menos potente para ahorrar costes.
|
||||
system_prompt: Aviso del sistema
|
||||
show_indexing_options: "Mostrar opciones de carga"
|
||||
hide_indexing_options: "Ocultar opciones de carga"
|
||||
allow_chat: "Permitir chat"
|
||||
allow_chat_help: "Si está activada, los usuarios de los grupos permitidos pueden DM a esta persona"
|
||||
save: Guardar
|
||||
|
@ -156,10 +154,6 @@ es:
|
|||
priority: Prioridad
|
||||
priority_help: Las personas prioritarias se muestran a los usuarios en la parte superior de la lista de personas. Si varias personas tienen prioridad, se ordenarán alfabéticamente.
|
||||
tool_options: "Opciones de herramientas"
|
||||
rag_chunk_tokens: "Cargar tokens de lotes"
|
||||
rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)"
|
||||
rag_chunk_overlap_tokens: "Cargar tokens de solapamiento de fragmentos"
|
||||
rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)"
|
||||
rag_conversation_chunks: "Buscar fragmentos de conversación"
|
||||
rag_conversation_chunks_help: "El número de fragmentos a utilizar para las búsquedas del modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA."
|
||||
what_are_personas: "¿Qué son las Personas de IA?"
|
||||
|
@ -173,9 +167,16 @@ es:
|
|||
#### Acceso específico de grupo a Personas de IA
|
||||
|
||||
Además, puedes configurarlo para que determinados grupos de usuarios tengan acceso a personas concretas. Esto significa que puedes tener diferentes comportamientos de IA para diferentes secciones de tu foro, mejorando aún más la diversidad y riqueza de las interacciones de tu comunidad.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Cargar tokens de lotes"
|
||||
rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)"
|
||||
rag_chunk_overlap_tokens: "Cargar tokens de solapamiento de fragmentos"
|
||||
rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)"
|
||||
show_indexing_options: "Mostrar opciones de carga"
|
||||
hide_indexing_options: "Ocultar opciones de carga"
|
||||
uploads:
|
||||
title: "Subidos"
|
||||
description: "Tu persona de IA podrá buscar y consultar el contenido de los archivos incluidos. Los archivos subidos deben tener formato de texto plano (.txt) o marcado (.md)."
|
||||
button: "Añadir archivos"
|
||||
filter: "Filtrar cargas"
|
||||
indexed: "Indexado"
|
||||
|
@ -219,9 +220,7 @@ es:
|
|||
short_title: "LLM"
|
||||
no_llms: "Aún no hay LLM"
|
||||
new: "Nuevo modelo"
|
||||
display_name: "Nombre para mostrar"
|
||||
name: "Nombre del modelo"
|
||||
provider: "Servicio de alojamiento del modelo"
|
||||
display_name: "Nombre"
|
||||
tokenizer: "Tokenizador"
|
||||
max_prompt_tokens: "Número de tokens para la solicitud"
|
||||
url: "URL del servicio que aloja el modelo"
|
||||
|
@ -236,8 +235,6 @@ es:
|
|||
confirm_delete: '¿Seguro que quieres eliminar este modelo?'
|
||||
delete: Eliminar
|
||||
preconfigured_llms: "Selecciona tu LLM"
|
||||
preconfigured:
|
||||
none: "Configurar manualmente..."
|
||||
next:
|
||||
title: "Siguiente"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ es:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Personalizado"
|
||||
provider_fields:
|
||||
access_key_id: "ID de clave de acceso a AWS Bedrock"
|
||||
region: "Región de AWS Bedrock"
|
||||
|
|
|
@ -38,6 +38,7 @@ et:
|
|||
save: Salvesta
|
||||
enabled: "Sisse lülitatud?"
|
||||
delete: Kustuta
|
||||
rag:
|
||||
uploads:
|
||||
title: "Üleslaadimised"
|
||||
uploading: "Laen üles..."
|
||||
|
@ -53,6 +54,7 @@ et:
|
|||
next:
|
||||
title: "Järgmine"
|
||||
llms:
|
||||
display_name: "Nimi"
|
||||
save: "Salvesta"
|
||||
edit: "Muuda"
|
||||
back: "Tagasi"
|
||||
|
@ -63,6 +65,7 @@ et:
|
|||
success: "Korras!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Individuaalne"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Tühista"
|
||||
|
|
|
@ -60,6 +60,7 @@ fa_IR:
|
|||
save: ذخیره
|
||||
enabled: "فعال شده؟"
|
||||
delete: حذف
|
||||
rag:
|
||||
uploads:
|
||||
title: "بارگذاریها"
|
||||
uploading: "در حال بار گذاری..."
|
||||
|
@ -79,9 +80,7 @@ fa_IR:
|
|||
run: "اجرای آزمایش"
|
||||
llms:
|
||||
new: "مدل جدید"
|
||||
display_name: "نام برای نمایش"
|
||||
name: "نام مدل"
|
||||
provider: "سرویس میزبانی مدل"
|
||||
display_name: "نام"
|
||||
save: "ذخیره"
|
||||
edit: "ویرایش"
|
||||
back: "بازگشت"
|
||||
|
@ -95,6 +94,7 @@ fa_IR:
|
|||
failure: "در حال ارتباط با مدل این خطا رخ داد: %{error}"
|
||||
providers:
|
||||
google: "گوگل"
|
||||
fake: "سفارشی"
|
||||
related_topics:
|
||||
title: "موضوعات مرتبط"
|
||||
ai_helper:
|
||||
|
|
|
@ -135,8 +135,6 @@ fi:
|
|||
question_consolidator_llm: Kielimalli kysymysten yhdistäjälle
|
||||
question_consolidator_llm_help: Kysymysten yhdistäjälle käytettävä kielimalli, voit valita vähemmän tehokkaan mallin kustannusten säästämiseksi.
|
||||
system_prompt: Järjestelmäkehote
|
||||
show_indexing_options: "Näytä latausasetukset"
|
||||
hide_indexing_options: "Piilota latausasetukset"
|
||||
allow_chat: "Salli chat"
|
||||
allow_chat_help: "Jos tämä on käytössä, sallittujen ryhmien käyttäjät voivat lähettää yksityisviestin tälle persoonalle"
|
||||
save: Tallenna
|
||||
|
@ -156,10 +154,6 @@ fi:
|
|||
priority: Prioriteetti
|
||||
priority_help: Prioriteettipersoonat näytetään käyttäjille ensimmäisinä persoonaluettelossa. Jos useilla persoonilla on prioriteetti, ne järjestetään aakkosjärjestyksessä.
|
||||
tool_options: "Työkaluasetukset"
|
||||
rag_chunk_tokens: "Latauslohkotokenit"
|
||||
rag_chunk_tokens_help: "Kullekin lohkolle käytettävien tokenien määrä RAG-mallissa. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen)."
|
||||
rag_chunk_overlap_tokens: "Latauslohkon päällekkäiset tokenit"
|
||||
rag_chunk_overlap_tokens_help: "Päällekkäisten tokenien määrä lohkojen välillä RAG-mallissa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen). "
|
||||
rag_conversation_chunks: "Hakukeskustelulohkot"
|
||||
rag_conversation_chunks_help: "RAG-mallin hauissa käytettävien lohkojen määrä. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa."
|
||||
what_are_personas: "Mitä ovat tekoälypersoonat?"
|
||||
|
@ -173,9 +167,16 @@ fi:
|
|||
#### Ryhmäkohtainen tekoälypersoonien käyttöoikeus
|
||||
|
||||
Lisäksi voit määrittää siten, että tietyillä käyttäjäryhmillä on pääsy tiettyihin persooniin. Tämä tarkoittaa, että sinulla voi olla erilaisia tekoälykäyttäytymismalleja foorumisi eri osioissa, mikä lisää entisestään yhteisösi vuorovaikutuksen monimuotoisuutta ja monipuolisuutta.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Latauslohkotokenit"
|
||||
rag_chunk_tokens_help: "Kullekin lohkolle käytettävien tokenien määrä RAG-mallissa. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen)."
|
||||
rag_chunk_overlap_tokens: "Latauslohkon päällekkäiset tokenit"
|
||||
rag_chunk_overlap_tokens_help: "Päällekkäisten tokenien määrä lohkojen välillä RAG-mallissa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen). "
|
||||
show_indexing_options: "Näytä latausasetukset"
|
||||
hide_indexing_options: "Piilota latausasetukset"
|
||||
uploads:
|
||||
title: "Lataukset"
|
||||
description: "Tekoälypersoonasi voi hakea ja viitata sisällytettävien tiedostojen sisältöön. Verkkoon ladatut tiedostot tulisi muotoilla tavalliseksi tekstiksi (.txt) tai markdown-muotoon (.md)."
|
||||
button: "Lisää tiedostoja"
|
||||
filter: "Suodata latauksia"
|
||||
indexed: "Indeksoitu"
|
||||
|
@ -219,9 +220,7 @@ fi:
|
|||
short_title: "LLM:t"
|
||||
no_llms: "LLM:iä ei ole vielä"
|
||||
new: "Uusi malli"
|
||||
display_name: "Näytettävä nimi"
|
||||
name: "Mallin nimi"
|
||||
provider: "Mallia isännöivä palvelu"
|
||||
display_name: "Nimi"
|
||||
tokenizer: "Tokenisoija"
|
||||
max_prompt_tokens: "Kehotteen tokenien määrä"
|
||||
url: "Mallia isännöivän palvelun URL-osoite"
|
||||
|
@ -236,8 +235,6 @@ fi:
|
|||
confirm_delete: Oletko varma, että haluat poistaa tämän mallin?
|
||||
delete: Poista
|
||||
preconfigured_llms: "Valitse LLM"
|
||||
preconfigured:
|
||||
none: "Määritä manuaalisesti..."
|
||||
next:
|
||||
title: "Seuraava"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ fi:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Mukautettu"
|
||||
provider_fields:
|
||||
access_key_id: "AWS Bedrockin käyttöavaintunnus"
|
||||
region: "AWS Bedrockin alue"
|
||||
|
|
|
@ -135,8 +135,6 @@ fr:
|
|||
question_consolidator_llm: Modèle linguistique pour le consolidateur de questions
|
||||
question_consolidator_llm_help: Le modèle linguistique à utiliser pour le consolidateur de questions, vous pouvez choisir un modèle moins puissant pour réduire les coûts.
|
||||
system_prompt: Invite du système
|
||||
show_indexing_options: "Afficher les options de téléversement"
|
||||
hide_indexing_options: "Masquer les options de téléversement"
|
||||
allow_chat: "Autoriser la messagerie instantanée"
|
||||
allow_chat_help: "Si cette option est activée, les utilisateurs des groupes autorisés peuvent envoyer un DM à ce personnage"
|
||||
save: Enregistrer
|
||||
|
@ -156,10 +154,6 @@ fr:
|
|||
priority: Priorité
|
||||
priority_help: Les personnages prioritaires sont affichés aux utilisateurs en haut de la liste des personnages. Si plusieurs personnages sont prioritaires, ils seront triés par ordre alphabétique.
|
||||
tool_options: "Options de l'outil"
|
||||
rag_chunk_tokens: "Télécharger des jetons de fragments"
|
||||
rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)"
|
||||
rag_chunk_overlap_tokens: "Téléverser des jetons de chevauchement de morceaux"
|
||||
rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)"
|
||||
rag_conversation_chunks: "Rechercher des morceaux de conversation"
|
||||
rag_conversation_chunks_help: "Le nombre de segments à utiliser pour les recherches de modèles RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser."
|
||||
what_are_personas: "Que sont les personnages IA ?"
|
||||
|
@ -173,9 +167,16 @@ fr:
|
|||
#### Accès spécifique à un groupe aux personnages IA
|
||||
|
||||
De plus, vous pouvez les configurer pour que certains groupes d'utilisateurs aient accès à des personnages spécifiques. Cela signifie que vous pouvez avoir différents comportements d'IA pour différentes sections de votre forum, et améliorer ainsi encore la diversité et la richesse des interactions de votre communauté.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Télécharger des jetons de fragments"
|
||||
rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)"
|
||||
rag_chunk_overlap_tokens: "Téléverser des jetons de chevauchement de morceaux"
|
||||
rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)"
|
||||
show_indexing_options: "Afficher les options de téléversement"
|
||||
hide_indexing_options: "Masquer les options de téléversement"
|
||||
uploads:
|
||||
title: "Fichiers envoyés"
|
||||
description: "Votre personnage IA pourra rechercher et référencer le contenu des fichiers inclus. Les fichiers téléversés doivent être formatés en texte brut (.txt) ou en markdown (.md)."
|
||||
button: "Ajouter des fichiers"
|
||||
filter: "Filtrer les téléversements"
|
||||
indexed: "Indexé"
|
||||
|
@ -219,9 +220,7 @@ fr:
|
|||
short_title: "LLM"
|
||||
no_llms: "Pas encore de LLM"
|
||||
new: "Nouveau modèle"
|
||||
display_name: "Nom à afficher"
|
||||
name: "Nom du modèle"
|
||||
provider: "Service hébergeant le modèle"
|
||||
display_name: "Nom"
|
||||
tokenizer: "Tokéniseur"
|
||||
max_prompt_tokens: "Nombre de jetons pour l'invite"
|
||||
url: "URL du service hébergeant le modèle"
|
||||
|
@ -236,8 +235,6 @@ fr:
|
|||
confirm_delete: Voulez-vous vraiment supprimer ce modèle ?
|
||||
delete: Supprimer
|
||||
preconfigured_llms: "Sélectionnez votre LLM"
|
||||
preconfigured:
|
||||
none: "Configurer manuellement..."
|
||||
next:
|
||||
title: "Suivant"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ fr:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Personnalisé"
|
||||
provider_fields:
|
||||
access_key_id: "ID de clé d'accès AWS Bedrock"
|
||||
region: "Région AWS Bedrock"
|
||||
|
|
|
@ -38,6 +38,7 @@ gl:
|
|||
save: Gardar
|
||||
enabled: "Activado?"
|
||||
delete: Eliminar
|
||||
rag:
|
||||
uploads:
|
||||
title: "Cargas"
|
||||
uploading: "Cargando..."
|
||||
|
@ -56,6 +57,7 @@ gl:
|
|||
test_modal:
|
||||
run: "Executar proba"
|
||||
llms:
|
||||
display_name: "Nome"
|
||||
save: "Gardar"
|
||||
edit: "Editar"
|
||||
back: "Volver"
|
||||
|
@ -67,6 +69,7 @@ gl:
|
|||
success: "Feito!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Personalizado"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Cancelar"
|
||||
|
|
|
@ -140,8 +140,6 @@ he:
|
|||
question_consolidator_llm: מודל שפה למגבש השאלות
|
||||
question_consolidator_llm_help: מודל השפה לשימוש עבור מגבש השאלות, אפשר לבחור במודל פחות חזק כדי לחסוך בעלויות.
|
||||
system_prompt: בקשת מערכת
|
||||
show_indexing_options: "הצגת אפשרויות העלאה"
|
||||
hide_indexing_options: "הסתרת אפשרויות העלאה"
|
||||
allow_chat: "לאפשר צ׳אט"
|
||||
allow_chat_help: "אם האפשרות פעילה, משתמשים בקבוצות מורשות יכולים לשלוח לדמות הזאת הודעות פרטיות"
|
||||
save: שמירה
|
||||
|
@ -161,10 +159,6 @@ he:
|
|||
priority: עדיפות
|
||||
priority_help: דמויות בעדיפות גבוהה מוצגות למשתמשים בראש רשימת הדמויות. אם מספר דמויות הן בעדיפות הן תסודרנה לפי האלפבית.
|
||||
tool_options: "אפשרויות כלי"
|
||||
rag_chunk_tokens: "העלאת אסימוני חלקים"
|
||||
rag_chunk_tokens_help: "מספר האסימונים לשימוש לכל נתח במודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
|
||||
rag_chunk_overlap_tokens: "העלאת אסימוני חפיפת חלקים"
|
||||
rag_chunk_overlap_tokens_help: "מספר האסימון לחפיפה בין נתחים במודל ה־RAG. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
|
||||
rag_conversation_chunks: "חיפוש בחלקי הדיון"
|
||||
rag_conversation_chunks_help: "מספר הנתחים לשימוש לחיפושים עם מודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית."
|
||||
what_are_personas: "מה הן דמויות בינה מלאכותית?"
|
||||
|
@ -178,9 +172,16 @@ he:
|
|||
#### גישה קבוצתית ייעודית לדמויות בינה מלאכותית
|
||||
|
||||
יתרה מכך, אפשר להגדיר אותה כך שרק לקבוצות מסוימות תהיינה גישה לדמויות מסוימות. משמעות הדבר היא שאפשר לנהל התנהגויות שונות לבינה המלאכותית לאזורים שונים בפורום שלך, ובכך להרחיב את הגיוון ואת העושר של ההתנהלות בקהילה שלך.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "העלאת אסימוני חלקים"
|
||||
rag_chunk_tokens_help: "מספר האסימונים לשימוש לכל נתח במודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
|
||||
rag_chunk_overlap_tokens: "העלאת אסימוני חפיפת חלקים"
|
||||
rag_chunk_overlap_tokens_help: "מספר האסימון לחפיפה בין נתחים במודל ה־RAG. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
|
||||
show_indexing_options: "הצגת אפשרויות העלאה"
|
||||
hide_indexing_options: "הסתרת אפשרויות העלאה"
|
||||
uploads:
|
||||
title: "העלאות"
|
||||
description: "דמות הבינה המלאכותית שלך תוכל לחפש ולהפנות לתוכן של קבצים כלולים. קבצים שהועלו אמורים להיות בתסדירי טקסט פשוט (.txt) או markdown (.md)."
|
||||
button: "הוספת קבצים"
|
||||
filter: "סינון העלאות"
|
||||
indexed: "סודר במפתח"
|
||||
|
@ -224,9 +225,9 @@ he:
|
|||
short_title: "LLMים"
|
||||
no_llms: "אין LLMים עדיין"
|
||||
new: "מודל חדש"
|
||||
display_name: "שם להצגה"
|
||||
name: "שם המודל"
|
||||
provider: "השירות שמארח את המודל"
|
||||
display_name: "שם"
|
||||
name: "מזהה מודל"
|
||||
provider: "ספק"
|
||||
tokenizer: "מפרק לאסימונים"
|
||||
max_prompt_tokens: "מספר האסימונים לבקשה"
|
||||
url: "כתובת השירות שמארח את המודל"
|
||||
|
@ -246,9 +247,13 @@ he:
|
|||
two: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. "
|
||||
many: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. "
|
||||
other: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. "
|
||||
model_description:
|
||||
none: "הגדרות כלליות שעובדות עבור רוב המודלים של השפות"
|
||||
anthropic-claude-3-5-sonnet: "המודל החכם ביותר של Anthropic"
|
||||
anthropic-claude-3-opus: "מצטיין בכתיבה ובמשימות מורכבות"
|
||||
anthropic-claude-3-sonnet: "איזון בין מהירות לחוכמה"
|
||||
anthropic-claude-3-haiku: "מהיר וחסכוני"
|
||||
preconfigured_llms: "בחירת ה־LLM שלך"
|
||||
preconfigured:
|
||||
none: "הגדרה ידנית…"
|
||||
next:
|
||||
title: "הבא"
|
||||
tests:
|
||||
|
@ -272,6 +277,7 @@ he:
|
|||
ollama: "Ollama"
|
||||
CDCK: "CDCK"
|
||||
samba_nova: "SambaNova"
|
||||
fake: "מותאם"
|
||||
provider_fields:
|
||||
access_key_id: "מזהה מפתח גישה ל־AWS Bedrock"
|
||||
region: "אזור של AWS Bedrock"
|
||||
|
|
|
@ -38,6 +38,7 @@ hr:
|
|||
save: Spremi
|
||||
enabled: "Omogućeno?"
|
||||
delete: Pobriši
|
||||
rag:
|
||||
uploads:
|
||||
title: "Prijenosi"
|
||||
uploading: "Učitavanje..."
|
||||
|
@ -56,6 +57,7 @@ hr:
|
|||
test_modal:
|
||||
run: "Pokreni test"
|
||||
llms:
|
||||
display_name: "Ime"
|
||||
save: "Spremi"
|
||||
edit: "Uredi"
|
||||
back: "Natrag"
|
||||
|
@ -67,6 +69,7 @@ hr:
|
|||
success: "Uspjeh!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Posebna"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Odustani"
|
||||
|
|
|
@ -38,9 +38,10 @@ hu:
|
|||
save: Mentés
|
||||
enabled: "Engedélyezed?"
|
||||
delete: Törlés
|
||||
rag:
|
||||
uploads:
|
||||
title: "Feltöltések"
|
||||
uploading: "Feltültés..."
|
||||
uploading: "Feltöltés…"
|
||||
tools:
|
||||
back: "Vissza"
|
||||
name: "Név"
|
||||
|
@ -56,6 +57,7 @@ hu:
|
|||
test_modal:
|
||||
run: "Teszt futtatása"
|
||||
llms:
|
||||
display_name: "Név"
|
||||
save: "Mentés"
|
||||
edit: "Szerkesztés"
|
||||
back: "Vissza"
|
||||
|
@ -67,6 +69,7 @@ hu:
|
|||
success: "Siker!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Egyéni"
|
||||
related_topics:
|
||||
title: "Kapcsolódó témák"
|
||||
pill: "Kapcsolódó"
|
||||
|
|
|
@ -38,6 +38,7 @@ hy:
|
|||
save: Պահպանել
|
||||
enabled: "Միացվա՞ծ է:"
|
||||
delete: Ջնջել
|
||||
rag:
|
||||
uploads:
|
||||
title: "Վերբեռնումներ"
|
||||
uploading: "Վերբեռնում..."
|
||||
|
@ -56,6 +57,7 @@ hy:
|
|||
test_modal:
|
||||
run: "Մեկնարկել Փորձարկումը"
|
||||
llms:
|
||||
display_name: "Անուն"
|
||||
save: "Պահպանել"
|
||||
edit: "Խմբագրել"
|
||||
back: "Ետ"
|
||||
|
@ -67,6 +69,7 @@ hy:
|
|||
success: "Հաջողություն!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Մասնավոր"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Չեղարկել"
|
||||
|
|
|
@ -107,8 +107,6 @@ id:
|
|||
question_consolidator_llm: Model Bahasa untuk Konsolidator Pertanyaan
|
||||
question_consolidator_llm_help: Model bahasa yang digunakan untuk konsolidator pertanyaan, Anda dapat memilih model yang kurang kuat untuk menghemat biaya.
|
||||
system_prompt: Perintah Sistem
|
||||
show_indexing_options: "Tampilkan Opsi Unggah"
|
||||
hide_indexing_options: "Sembunyikan Opsi Unggah"
|
||||
allow_chat: "Izinkan Obrolan"
|
||||
allow_chat_help: "Jika diaktifkan, pengguna di grup yang diizinkan dapat mengirimkan DM ke persona ini"
|
||||
save: Simpan
|
||||
|
@ -116,8 +114,11 @@ id:
|
|||
delete: Hapus
|
||||
temperature: Temperatur
|
||||
top_p: Top P
|
||||
rag:
|
||||
options:
|
||||
show_indexing_options: "Tampilkan Opsi Unggah"
|
||||
hide_indexing_options: "Sembunyikan Opsi Unggah"
|
||||
uploads:
|
||||
description: "Persona AI Anda akan dapat mencari dan mereferensikan konten file yang disertakan. File yang diunggah harus diformat sebagai teks biasa (.txt) atau markdown (.md)."
|
||||
uploading: "Mengunggah..."
|
||||
tools:
|
||||
back: "Kembali"
|
||||
|
@ -131,6 +132,7 @@ id:
|
|||
test_modal:
|
||||
run: "Operasikan Tes"
|
||||
llms:
|
||||
display_name: "Nama"
|
||||
save: "Simpan"
|
||||
edit: "Ubah"
|
||||
back: "Kembali"
|
||||
|
|
|
@ -135,8 +135,6 @@ it:
|
|||
question_consolidator_llm: Modello linguistico per il consolidatore di domande
|
||||
question_consolidator_llm_help: Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi.
|
||||
system_prompt: Comando di sistema
|
||||
show_indexing_options: "Mostra opzioni di caricamento"
|
||||
hide_indexing_options: "Nascondi opzioni di caricamento"
|
||||
allow_chat: "Consenti chat"
|
||||
allow_chat_help: "Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono scrivere in DM questa persona"
|
||||
save: Salva
|
||||
|
@ -156,10 +154,6 @@ it:
|
|||
priority: Priorità
|
||||
priority_help: I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico.
|
||||
tool_options: "Opzioni dello strumento"
|
||||
rag_chunk_tokens: "Carica token di blocco"
|
||||
rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
|
||||
rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco"
|
||||
rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)"
|
||||
rag_conversation_chunks: "Cerca blocchi di conversazione"
|
||||
rag_conversation_chunks_help: "Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare."
|
||||
what_are_personas: "Cosa sono i personaggi IA?"
|
||||
|
@ -173,9 +167,16 @@ it:
|
|||
#### Accesso specifico per gruppo ai personaggi IA
|
||||
|
||||
Inoltre, puoi configurarli in modo che determinati gruppi di utenti abbiano accesso a personaggi specifici. Ciò significa che puoi avere comportamenti IA diversi per le diverse sezioni del tuo forum, migliorando ulteriormente la diversità e la ricchezza delle interazioni della tua community.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Carica token di blocco"
|
||||
rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
|
||||
rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco"
|
||||
rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)"
|
||||
show_indexing_options: "Mostra opzioni di caricamento"
|
||||
hide_indexing_options: "Nascondi opzioni di caricamento"
|
||||
uploads:
|
||||
title: "Caricamenti"
|
||||
description: "Il tuo personaggio IA sarà in grado di cercare e fare riferimento al contenuto dei file inclusi. I file caricati devono essere formattati come testo normale (.txt) o markdown (.md)."
|
||||
button: "Aggiungi file"
|
||||
filter: "Filtro caricamenti"
|
||||
indexed: "Indicizzato"
|
||||
|
@ -219,9 +220,7 @@ it:
|
|||
short_title: "LLM"
|
||||
no_llms: "Ancora nessun LLM"
|
||||
new: "Nuovo modello"
|
||||
display_name: "Nome da visualizzare"
|
||||
name: "Nome del modello"
|
||||
provider: "Servizio che ospita il modello"
|
||||
display_name: "Nome"
|
||||
tokenizer: "Tokenizzatore"
|
||||
max_prompt_tokens: "Numero di token per il comando"
|
||||
url: "URL del servizio che ospita il modello"
|
||||
|
@ -236,8 +235,6 @@ it:
|
|||
confirm_delete: Vuoi davvero eliminare questo modello?
|
||||
delete: Elimina
|
||||
preconfigured_llms: "Seleziona il tuo LLM"
|
||||
preconfigured:
|
||||
none: "Configura manualmente..."
|
||||
next:
|
||||
title: "Avanti"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ it:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Personalizzato"
|
||||
provider_fields:
|
||||
access_key_id: "ID chiave di accesso AWS Bedrock"
|
||||
region: "Regione AWS Bedrock"
|
||||
|
|
|
@ -135,8 +135,6 @@ ja:
|
|||
question_consolidator_llm: 質問統合用の言語モデル
|
||||
question_consolidator_llm_help: 質問統合に使用する言語モデル。それほど強力でないモデルを選択してコストを節約することも可能です。
|
||||
system_prompt: システムプロンプト
|
||||
show_indexing_options: "アップロードオプションを表示"
|
||||
hide_indexing_options: "アップロードオプションを非表示"
|
||||
allow_chat: "チャットを許可"
|
||||
allow_chat_help: "有効にすると、許可されているグループのユーザーはこのペルソナに DM を送信できます"
|
||||
save: 保存
|
||||
|
@ -156,10 +154,6 @@ ja:
|
|||
priority: 優先度
|
||||
priority_help: 優先ペルソナはペルソナリストの先頭に表示されます。複数のペルソナが優先されている場合は、アルファベット順に並べ替えられます。
|
||||
tool_options: "ツールのオプション"
|
||||
rag_chunk_tokens: "チャンクトークンをアップロード"
|
||||
rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)"
|
||||
rag_chunk_overlap_tokens: "チャンクオーバーラップトークンをアップロード"
|
||||
rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)"
|
||||
rag_conversation_chunks: "会話チャンクを検索"
|
||||
rag_conversation_chunks_help: "RAG モデル検索に使用するチャンクの数。値を増やすと、AI が使用できるコンテキストの量が増えます。"
|
||||
what_are_personas: "AI ペルソナとは何ですか?"
|
||||
|
@ -173,9 +167,16 @@ ja:
|
|||
#### AI ペルソナへのアクセスをグループごとに設定
|
||||
|
||||
さらに、特定のユーザーグループが特定のペルソナにアクセスできるようにセットアップすることができます。そのため、フォーラムのセクションごとに異なる AI の振る舞いを適用し、コミュニティーの対話の多様性と充実度をさらに強化することができます。
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "チャンクトークンをアップロード"
|
||||
rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)"
|
||||
rag_chunk_overlap_tokens: "チャンクオーバーラップトークンをアップロード"
|
||||
rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)"
|
||||
show_indexing_options: "アップロードオプションを表示"
|
||||
hide_indexing_options: "アップロードオプションを非表示"
|
||||
uploads:
|
||||
title: "アップロード"
|
||||
description: "AI ペルソナは含まれているファイルのコンテンツを検索して参照できます。アップロードされるファイルはプレーンテキスト (.txt) または Markdown (.md) としてフォーマットされている必要があります。"
|
||||
button: "ファイルを追加"
|
||||
filter: "アップロードをフィルタ"
|
||||
indexed: "インデックスを作成しました"
|
||||
|
@ -219,9 +220,7 @@ ja:
|
|||
short_title: "LLM"
|
||||
no_llms: "まだ LLM がありません"
|
||||
new: "新しいモデル"
|
||||
display_name: "表示する名前"
|
||||
name: "モデル名"
|
||||
provider: "モデルをホストするサービス"
|
||||
display_name: "名前"
|
||||
tokenizer: "トークナイザ―"
|
||||
max_prompt_tokens: "プロンプトのトークン数"
|
||||
url: "モデルをホストするサービスの URL"
|
||||
|
@ -236,8 +235,6 @@ ja:
|
|||
confirm_delete: このモデルを削除してもよろしいですか?
|
||||
delete: 削除
|
||||
preconfigured_llms: "LLM を選択してください"
|
||||
preconfigured:
|
||||
none: "手動で構成..."
|
||||
next:
|
||||
title: "次へ"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ ja:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "カスタム"
|
||||
provider_fields:
|
||||
access_key_id: "AWS Bedrock アクセスキー ID"
|
||||
region: "AWS Bedrock リージョン"
|
||||
|
|
|
@ -40,6 +40,7 @@ ko:
|
|||
save: 저장
|
||||
enabled: "활성화?"
|
||||
delete: 삭제하기
|
||||
rag:
|
||||
uploads:
|
||||
title: "업로드된 파일"
|
||||
uploading: "업로드 중..."
|
||||
|
@ -58,6 +59,7 @@ ko:
|
|||
test_modal:
|
||||
run: "테스트 실행"
|
||||
llms:
|
||||
display_name: "그룹명"
|
||||
save: "저장"
|
||||
edit: "편집"
|
||||
back: "뒤로"
|
||||
|
@ -69,6 +71,7 @@ ko:
|
|||
success: "성공!"
|
||||
providers:
|
||||
google: "구글"
|
||||
fake: "사용자 정의"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "취소"
|
||||
|
|
|
@ -76,6 +76,7 @@ lt:
|
|||
enabled: "Galimas?"
|
||||
allowed_groups: Leidžiamos grupės
|
||||
delete: Pašalinti
|
||||
rag:
|
||||
uploads:
|
||||
title: "Įkėlimai"
|
||||
uploading: "Įkeliama"
|
||||
|
@ -94,6 +95,7 @@ lt:
|
|||
test_modal:
|
||||
run: "Vykdyti testą"
|
||||
llms:
|
||||
display_name: "Vardas"
|
||||
save: "Išsaugoti"
|
||||
edit: "Redaguoti"
|
||||
back: "Atgal"
|
||||
|
@ -105,6 +107,7 @@ lt:
|
|||
success: "Sėkmingai!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Išskirtinės"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
trigger: "Paklauskite AI"
|
||||
|
|
|
@ -38,6 +38,7 @@ lv:
|
|||
save: Saglabāt
|
||||
enabled: "Ieslēgts?"
|
||||
delete: Dzēst
|
||||
rag:
|
||||
uploads:
|
||||
title: "Augšupielādes"
|
||||
uploading: "Notiek ielāde..."
|
||||
|
@ -53,6 +54,7 @@ lv:
|
|||
next:
|
||||
title: "Nākamais"
|
||||
llms:
|
||||
display_name: "Vārds"
|
||||
save: "Saglabāt"
|
||||
edit: "Rediģēt"
|
||||
back: "Atpakaļ"
|
||||
|
|
|
@ -38,6 +38,7 @@ nb_NO:
|
|||
save: Lagre
|
||||
enabled: "Aktivert?"
|
||||
delete: Slett
|
||||
rag:
|
||||
uploads:
|
||||
title: "Opplastinger"
|
||||
uploading: "Laster opp…"
|
||||
|
@ -56,6 +57,7 @@ nb_NO:
|
|||
test_modal:
|
||||
run: "Kjør test"
|
||||
llms:
|
||||
display_name: "Navn"
|
||||
save: "Lagre"
|
||||
edit: "Endre"
|
||||
back: "Forrige"
|
||||
|
@ -67,6 +69,7 @@ nb_NO:
|
|||
success: "Suksess!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Egendefinert"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Avbryt"
|
||||
|
|
|
@ -135,8 +135,6 @@ nl:
|
|||
question_consolidator_llm: Taalmodel voor Vragenconsolidator
|
||||
question_consolidator_llm_help: Het te gebruiken taalmodel voor de vragenconsolidator. Je kunt een minder krachtig model kiezen om kosten te besparen.
|
||||
system_prompt: Systeemprompt
|
||||
show_indexing_options: "Uploadopties weergeven"
|
||||
hide_indexing_options: "Uploadopties verbergen"
|
||||
allow_chat: "Chat toestaan"
|
||||
allow_chat_help: "Indien ingeschakeld, kunnen gebruikers in toegestane groepen deze persona een direct bericht sturen"
|
||||
save: Opslaan
|
||||
|
@ -156,10 +154,6 @@ nl:
|
|||
priority: Prioriteit
|
||||
priority_help: Prioritaire persona's worden bovenaan de personalijst weergegeven voor gebruikers. Als meerdere persona's prioriteit hebben, worden deze alfabetisch gesorteerd.
|
||||
tool_options: "Toolopties"
|
||||
rag_chunk_tokens: "Uploadchunktokens"
|
||||
rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
|
||||
rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens"
|
||||
rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
|
||||
rag_conversation_chunks: "Conversatiechunks zoeken"
|
||||
rag_conversation_chunks_help: "Het te gebruiken aantal chunks voor zoeken door het RAG-model. Verhoog dit om de hoeveelheid context te vergroten die de AI kan gebruiken."
|
||||
what_are_personas: "Wat zijn AI-persona's?"
|
||||
|
@ -173,9 +167,16 @@ nl:
|
|||
#### Groepsspecifieke toegang tot AI-persona's
|
||||
|
||||
Bovendien kun je het zo instellen dat bepaalde gebruikersgroepen toegang hebben tot specifieke persona's. Dit betekent dat je verschillende AI-gedragingen kunt hebben voor verschillende secties van je forum, waardoor de diversiteit en rijkdom van de interacties in je community verder toeneemt.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Uploadchunktokens"
|
||||
rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
|
||||
rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens"
|
||||
rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
|
||||
show_indexing_options: "Uploadopties weergeven"
|
||||
hide_indexing_options: "Uploadopties verbergen"
|
||||
uploads:
|
||||
title: "Uploads"
|
||||
description: "Je AI-persona kan de inhoud van de opgenomen bestanden zoeken en ernaar verwijzen. Geüploade bestanden moeten zijn opgemaakt als platte tekst (.txt) of markdown (.md)."
|
||||
button: "Bestanden toevoegen"
|
||||
filter: "Uploads filteren"
|
||||
indexed: "Geïndexeerd"
|
||||
|
@ -219,9 +220,7 @@ nl:
|
|||
short_title: "LLM's"
|
||||
no_llms: "Nog geen LLM's"
|
||||
new: "Nieuw model"
|
||||
display_name: "Weer te geven naam"
|
||||
name: "Modelnaam"
|
||||
provider: "Service die het model host"
|
||||
display_name: "Naam"
|
||||
tokenizer: "Tokenizer"
|
||||
max_prompt_tokens: "Aantal tokens voor de prompt"
|
||||
url: "URL van de service die het model host"
|
||||
|
@ -236,8 +235,6 @@ nl:
|
|||
confirm_delete: Weet je zeker dat je dit model wilt verwijderen?
|
||||
delete: Verwijderen
|
||||
preconfigured_llms: "Selecteer je LLM"
|
||||
preconfigured:
|
||||
none: "Handmatig configureren..."
|
||||
next:
|
||||
title: "Volgende"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ nl:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Aangepast"
|
||||
provider_fields:
|
||||
access_key_id: "Toegangssleutel-ID AWS Bedrock"
|
||||
region: "Regio AWS Bedrock"
|
||||
|
|
|
@ -129,6 +129,7 @@ pl_PL:
|
|||
temperature_help: Temperatura do zastosowania w LLM, zwiększ, aby zwiększyć kreatywność (pozostaw puste, aby użyć domyślnego modelu, zazwyczaj wartość od 0,0 do 2,0)
|
||||
priority: Priorytet
|
||||
priority_help: Priorytetowe persony są wyświetlane użytkownikom na górze listy person. Jeśli wiele person ma priorytet, zostaną one posortowane alfabetycznie.
|
||||
rag:
|
||||
uploads:
|
||||
title: "Pliki"
|
||||
button: "Dodaj pliki"
|
||||
|
@ -148,6 +149,7 @@ pl_PL:
|
|||
test_modal:
|
||||
run: "Przeprowadź test"
|
||||
llms:
|
||||
display_name: "Nazwa"
|
||||
save: "Zapisz"
|
||||
edit: "Edytuj"
|
||||
back: "Poprzednia"
|
||||
|
@ -159,6 +161,7 @@ pl_PL:
|
|||
success: "Sukces!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Niestandardowe"
|
||||
related_topics:
|
||||
title: "Powiązane tematy"
|
||||
pill: "Powiązane"
|
||||
|
|
|
@ -38,6 +38,7 @@ pt:
|
|||
save: Guardar
|
||||
enabled: "Ativado?"
|
||||
delete: Eliminar
|
||||
rag:
|
||||
uploads:
|
||||
title: "Uploads"
|
||||
uploading: "A enviar…"
|
||||
|
@ -53,6 +54,7 @@ pt:
|
|||
next:
|
||||
title: "Próximo"
|
||||
llms:
|
||||
display_name: "Nome"
|
||||
save: "Guardar"
|
||||
edit: "Editar"
|
||||
back: "Retroceder"
|
||||
|
@ -61,6 +63,7 @@ pt:
|
|||
title: "Próximo"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Personalizar"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Cancelar"
|
||||
|
|
|
@ -135,8 +135,6 @@ pt_BR:
|
|||
question_consolidator_llm: Modelo de linguagem para consolidador de pergunta
|
||||
question_consolidator_llm_help: O modelo de linguagem a ser usado para o consolidador de pergunta. Para economizar, você pode escolher um modelo menos robusto.
|
||||
system_prompt: Prompt do sistema
|
||||
show_indexing_options: "Exibir opções de envio"
|
||||
hide_indexing_options: "Ocultar opções de envio"
|
||||
allow_chat: "Permitir chat"
|
||||
allow_chat_help: "Ative para que os(às) usuários(as) nos grupos permitidos possam enviar mensagens diretas a esta persona"
|
||||
save: Salvar
|
||||
|
@ -156,10 +154,6 @@ pt_BR:
|
|||
priority: Prioridade
|
||||
priority_help: Personas de prioridade são exibidas aos(às) usuários(as) no topo da lista de personas. Se várias personas tiverem prioridade, serão escolhidas em ordem alfabética.
|
||||
tool_options: "Opções de ferramenta"
|
||||
rag_chunk_tokens: "Enviar Tokens de Parte"
|
||||
rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
|
||||
rag_chunk_overlap_tokens: "Enviar Tokens de Sobreposição de Parte"
|
||||
rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
|
||||
rag_conversation_chunks: "Pesquisar Pedaços de Conversa"
|
||||
rag_conversation_chunks_help: "O número de pedaços a serem usados para pesquisas de modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar."
|
||||
what_are_personas: "O que são personas de IA?"
|
||||
|
@ -173,9 +167,16 @@ pt_BR:
|
|||
#### Acesso específico de grupo a personas de IA
|
||||
|
||||
Além disso, você pode configurar para que determinados grupos de usuários(as) tenham acesso a personas específicas. Ou seja, você pode ter diferentes comportamentos de IA para seções distintas do seu fórum, melhorando ainda mais a diversidade e riqueza das interações da sua comunidade.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Enviar Tokens de Parte"
|
||||
rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
|
||||
rag_chunk_overlap_tokens: "Enviar Tokens de Sobreposição de Parte"
|
||||
rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
|
||||
show_indexing_options: "Exibir opções de envio"
|
||||
hide_indexing_options: "Ocultar opções de envio"
|
||||
uploads:
|
||||
title: "Envios"
|
||||
description: "Sua persona de AI poderá pesquisar e referenciar o conteúdo dos arquivos inclusos. Os arquivos enviados devem ser formatados como texto não criptografado (.txt) ou Markdown (.md)."
|
||||
button: "Adicionar arquivos"
|
||||
filter: "Filtrar envios"
|
||||
indexed: "Indexado(a)"
|
||||
|
@ -219,9 +220,7 @@ pt_BR:
|
|||
short_title: "LLMs"
|
||||
no_llms: "Nenhum LLM ainda"
|
||||
new: "Novo modelo"
|
||||
display_name: "Nome a ser exibido"
|
||||
name: "Nome do modelo"
|
||||
provider: "Servido da hospedagem do modelo"
|
||||
display_name: "Nome"
|
||||
tokenizer: "Tokenizador"
|
||||
max_prompt_tokens: "Quantidade de tokens para o prompt"
|
||||
url: "URL do serviço da hospedagem do modelo"
|
||||
|
@ -236,8 +235,6 @@ pt_BR:
|
|||
confirm_delete: Tem certeza de que deseja excluir este modelo?
|
||||
delete: Excluir
|
||||
preconfigured_llms: "Selecione sua LLM"
|
||||
preconfigured:
|
||||
none: "Configure manualmente..."
|
||||
next:
|
||||
title: "Próximo"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ pt_BR:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Personalizados(as)"
|
||||
provider_fields:
|
||||
access_key_id: "ID de chave de acesso do AWS Bedrock"
|
||||
region: "Região do AWS Bedrock"
|
||||
|
|
|
@ -38,6 +38,7 @@ ro:
|
|||
save: Salvare
|
||||
enabled: "Activat?"
|
||||
delete: Șterge
|
||||
rag:
|
||||
uploads:
|
||||
title: "Urcări"
|
||||
uploading: "Se încarcă..."
|
||||
|
@ -53,6 +54,7 @@ ro:
|
|||
next:
|
||||
title: "Următorul"
|
||||
llms:
|
||||
display_name: "Nume"
|
||||
save: "Salvează"
|
||||
edit: "Modifică"
|
||||
back: "Înapoi"
|
||||
|
@ -63,6 +65,7 @@ ro:
|
|||
success: "Succes!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Personalizat"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Anulare"
|
||||
|
|
|
@ -135,8 +135,6 @@ ru:
|
|||
question_consolidator_llm: Языковая модель для консолидатора вопросов
|
||||
question_consolidator_llm_help: Языковая модель, используемая для консолидатора вопросов; вы можете выбрать менее ресурсозатратную модель для экономии средств.
|
||||
system_prompt: Системый запрос
|
||||
show_indexing_options: "Показать параметры загрузки"
|
||||
hide_indexing_options: "Скрыть параметры загрузки"
|
||||
allow_chat: "Разрешить чат"
|
||||
allow_chat_help: "Если параметр включен, пользователи в разрешенных группах смогут отправлять личные сообщения этой персоне"
|
||||
save: Сохранить
|
||||
|
@ -156,10 +154,6 @@ ru:
|
|||
priority: Приоритет
|
||||
priority_help: Приоритетные персоны показываются пользователям вверху списка персон. Если приоритет имеют несколько персон, они будут отсортированы в алфавитном порядке.
|
||||
tool_options: "Параметры инструмента"
|
||||
rag_chunk_tokens: "Токены загрузочных фрагментов"
|
||||
rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)"
|
||||
rag_chunk_overlap_tokens: "Токены перекрытия загрузочных фрагментов"
|
||||
rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)"
|
||||
rag_conversation_chunks: "Фрагменты разговора для поиска"
|
||||
rag_conversation_chunks_help: "Количество фрагментов для поиска в модели RAG. Увеличьте это значение, чтобы увеличить объем контекста, который может использовать AI."
|
||||
what_are_personas: "Что такое AI-персоны?"
|
||||
|
@ -173,9 +167,16 @@ ru:
|
|||
#### Доступ для отдельных групп к AI-персонам
|
||||
|
||||
Кроме того, вы можете настроить доступ определенных групп пользователей к конкретным персонам. Это означает, что вы можете использовать различное поведение AI для разных разделов форума, что способствует разнообразию и богатству взаимодействия с вашим сообществом.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Токены загрузочных фрагментов"
|
||||
rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)"
|
||||
rag_chunk_overlap_tokens: "Токены перекрытия загрузочных фрагментов"
|
||||
rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)"
|
||||
show_indexing_options: "Показать параметры загрузки"
|
||||
hide_indexing_options: "Скрыть параметры загрузки"
|
||||
uploads:
|
||||
title: "Загрузки"
|
||||
description: "Ваша AI-персона сможет искать контент во включенных файлах и ссылаться на него. Загружаемые файлы должны быть в форматах обычного текста (.txt) или разметки markdown (.md)."
|
||||
button: "Добавить файлы"
|
||||
filter: "Фильтровать загрузки"
|
||||
indexed: "Проиндексированные"
|
||||
|
@ -219,9 +220,7 @@ ru:
|
|||
short_title: "Большие языковые модели"
|
||||
no_llms: "Еще нет LLM"
|
||||
new: "Новая модель"
|
||||
display_name: "Отображаемое название"
|
||||
name: "Название модели"
|
||||
provider: "Сервис хостинга модели"
|
||||
display_name: "Название"
|
||||
tokenizer: "Токенизатор"
|
||||
max_prompt_tokens: "Количество токенов для запроса"
|
||||
url: "URL-адрес сервиса, где размещена модель"
|
||||
|
@ -241,8 +240,6 @@ ru:
|
|||
many: "Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
|
||||
other: "Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
|
||||
preconfigured_llms: "Выберите LLM"
|
||||
preconfigured:
|
||||
none: "Настроить вручную..."
|
||||
next:
|
||||
title: "Далее"
|
||||
tests:
|
||||
|
@ -264,6 +261,7 @@ ru:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Указать продолжительность"
|
||||
provider_fields:
|
||||
access_key_id: "Идентификатор ключа доступа к AWS Bedrock"
|
||||
region: "Регион AWS Bedrock"
|
||||
|
|
|
@ -40,6 +40,7 @@ sk:
|
|||
save: Uložiť
|
||||
enabled: "Povolené?"
|
||||
delete: Odstrániť
|
||||
rag:
|
||||
uploads:
|
||||
title: "Nahrávanie"
|
||||
uploading: "Načítavam..."
|
||||
|
@ -59,6 +60,7 @@ sk:
|
|||
test_modal:
|
||||
run: "Spustiť test"
|
||||
llms:
|
||||
display_name: "Meno"
|
||||
save: "Uložiť"
|
||||
edit: "Upraviť"
|
||||
back: "Späť"
|
||||
|
@ -70,6 +72,7 @@ sk:
|
|||
success: "Úspech!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Vlastné"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Zrušiť"
|
||||
|
|
|
@ -38,6 +38,7 @@ sl:
|
|||
save: Shrani
|
||||
enabled: "Vključeno?"
|
||||
delete: Izbriši
|
||||
rag:
|
||||
uploads:
|
||||
title: "Prenosi"
|
||||
uploading: "Nalagam..."
|
||||
|
@ -53,6 +54,7 @@ sl:
|
|||
next:
|
||||
title: "Naprej"
|
||||
llms:
|
||||
display_name: "Ime"
|
||||
save: "Shrani"
|
||||
edit: "Uredi"
|
||||
back: "Nazaj"
|
||||
|
@ -63,6 +65,7 @@ sl:
|
|||
success: "Uspeh!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Po meri"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Prekliči"
|
||||
|
|
|
@ -38,6 +38,7 @@ sq:
|
|||
save: Ruaj
|
||||
enabled: "Aktivizuar?"
|
||||
delete: Fshij
|
||||
rag:
|
||||
uploads:
|
||||
uploading: "Duke ngarkuar..."
|
||||
tools:
|
||||
|
@ -52,6 +53,7 @@ sq:
|
|||
next:
|
||||
title: "Vazhdo përpara"
|
||||
llms:
|
||||
display_name: "Emri"
|
||||
save: "Ruaj"
|
||||
edit: "Redakto"
|
||||
back: "Kthehu mbrapa"
|
||||
|
@ -60,6 +62,7 @@ sq:
|
|||
title: "Vazhdo përpara"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Grupet e krijuara"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Anulo"
|
||||
|
|
|
@ -34,6 +34,7 @@ sr:
|
|||
save: Sačuvaj
|
||||
enabled: "Omgućeno"
|
||||
delete: Obriši
|
||||
rag:
|
||||
uploads:
|
||||
uploading: "Uploading..."
|
||||
tools:
|
||||
|
@ -48,6 +49,7 @@ sr:
|
|||
next:
|
||||
title: "Dalje"
|
||||
llms:
|
||||
display_name: "Ime foruma"
|
||||
save: "Sačuvaj"
|
||||
edit: "Izmeni"
|
||||
back: "Nazad"
|
||||
|
@ -56,6 +58,7 @@ sr:
|
|||
title: "Dalje"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Posebna"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Odustani"
|
||||
|
|
|
@ -38,6 +38,7 @@ sv:
|
|||
save: Spara
|
||||
enabled: "Aktiverad?"
|
||||
delete: Radera
|
||||
rag:
|
||||
uploads:
|
||||
title: "Uppladdningar"
|
||||
uploading: "Laddar upp..."
|
||||
|
@ -56,6 +57,7 @@ sv:
|
|||
test_modal:
|
||||
run: "Kör test"
|
||||
llms:
|
||||
display_name: "Namn"
|
||||
save: "Spara"
|
||||
edit: "Redigera"
|
||||
back: "Tillbaka"
|
||||
|
@ -67,6 +69,7 @@ sv:
|
|||
success: "Lyckades!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Anpassad"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Avbryt"
|
||||
|
|
|
@ -38,6 +38,7 @@ sw:
|
|||
save: Hifadhi
|
||||
enabled: "Imeruhusiwa?"
|
||||
delete: Futa
|
||||
rag:
|
||||
uploads:
|
||||
title: "Upakiaji"
|
||||
uploading: "Inaongezwa"
|
||||
|
@ -53,6 +54,7 @@ sw:
|
|||
next:
|
||||
title: "Ijayo"
|
||||
llms:
|
||||
display_name: "Jina"
|
||||
save: "Hifadhi"
|
||||
edit: "Hariri"
|
||||
back: "Iliyopita"
|
||||
|
@ -63,6 +65,7 @@ sw:
|
|||
success: "Mafanikio!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Binafsi"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Ghairi"
|
||||
|
|
|
@ -36,6 +36,7 @@ te:
|
|||
save: భద్రపరుచు
|
||||
enabled: "ప్రారంభించబడిందా?"
|
||||
delete: తొలగించు
|
||||
rag:
|
||||
uploads:
|
||||
title: "అప్లోడ్లు"
|
||||
uploading: "ఎగుమతవుతోంది..."
|
||||
|
@ -54,6 +55,7 @@ te:
|
|||
test_modal:
|
||||
run: "పరీక్షను అమలు చేయండి"
|
||||
llms:
|
||||
display_name: "పేరు"
|
||||
save: "సేవ్ చేయండి"
|
||||
edit: "సవరించండి"
|
||||
back: "వెనుకకు"
|
||||
|
@ -64,6 +66,7 @@ te:
|
|||
title: "పరీక్షను అమలు చేయండి"
|
||||
providers:
|
||||
google: "గూగుల్"
|
||||
fake: "అనుకూల"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "రద్దుచేయి"
|
||||
|
|
|
@ -38,6 +38,7 @@ th:
|
|||
save: บันทึก
|
||||
enabled: "เปิดใช้"
|
||||
delete: ลบ
|
||||
rag:
|
||||
uploads:
|
||||
title: "อัปโหลด"
|
||||
uploading: "กำลังอัปโหลด..."
|
||||
|
@ -53,6 +54,7 @@ th:
|
|||
next:
|
||||
title: "ต่อไป"
|
||||
llms:
|
||||
display_name: "ชื่อ"
|
||||
save: "บันทึก"
|
||||
edit: "แก้ไข"
|
||||
back: "กลับ"
|
||||
|
|
|
@ -135,8 +135,6 @@ tr_TR:
|
|||
question_consolidator_llm: Soru Konsolidatörü için Dil Modeli
|
||||
question_consolidator_llm_help: Soru birleştirici için kullanılacak dil modeli, maliyetten tasarruf etmek için daha az güçlü bir model seçebilirsiniz.
|
||||
system_prompt: Sistem İstemi
|
||||
show_indexing_options: "Karşıya Yükleme Seçeneklerini göster"
|
||||
hide_indexing_options: "Karşıya Yükleme Seçeneklerini gizle"
|
||||
allow_chat: "Sohbete izin ver"
|
||||
allow_chat_help: "Etkinleştirilirse izin verilen gruplardaki kullanıcılar bu kişiye DM gönderebilir"
|
||||
save: Kaydet
|
||||
|
@ -156,10 +154,6 @@ tr_TR:
|
|||
priority: Öncelik
|
||||
priority_help: Öncelikli kişilikler kullanıcılara kişilik listesinin en üstünde gösterilir. Birden fazla kişiliğin önceliği varsa bunlar alfabetik olarak sıralanır.
|
||||
tool_options: "Araç Seçenekleri"
|
||||
rag_chunk_tokens: "Parça Token'ları yükle"
|
||||
rag_chunk_tokens_help: "RAG modelindeki her yığın için kullanılacak belirteç sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın. (değiştirmek tüm yüklemeleri yeniden endeksler)"
|
||||
rag_chunk_overlap_tokens: "Parça Örtüşme Token'ları yükle"
|
||||
rag_chunk_overlap_tokens_help: "RAG modelinde yığınlar arasında üst üste binecek token sayısı. (değiştirme tüm yüklemeleri yeniden endeksler)"
|
||||
rag_conversation_chunks: "Konuşma Parçaları ara"
|
||||
rag_conversation_chunks_help: "RAG modeli aramaları için kullanılacak parça sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın."
|
||||
what_are_personas: "YZ Kişileri nedir?"
|
||||
|
@ -173,9 +167,16 @@ tr_TR:
|
|||
#### YZ Kişilerine Gruba Özel Erişim
|
||||
|
||||
Dahası, belirli kullanıcı gruplarının belirli kişiliklere erişime sahip olacak şekilde de belirleyebilirsiniz. Bu, forumunuzun farklı bölümleri için farklı YZ davranışlarına sahip olabileceğiniz anlamına gelir ve böylece topluluğunuzun etkileşimlerinin çeşitliliğini ve zenginliğini geliştirebilirsiniz.
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "Parça Token'ları yükle"
|
||||
rag_chunk_tokens_help: "RAG modelindeki her yığın için kullanılacak belirteç sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın. (değiştirmek tüm yüklemeleri yeniden endeksler)"
|
||||
rag_chunk_overlap_tokens: "Parça Örtüşme Token'ları yükle"
|
||||
rag_chunk_overlap_tokens_help: "RAG modelinde yığınlar arasında üst üste binecek token sayısı. (değiştirme tüm yüklemeleri yeniden endeksler)"
|
||||
show_indexing_options: "Karşıya Yükleme Seçeneklerini göster"
|
||||
hide_indexing_options: "Karşıya Yükleme Seçeneklerini gizle"
|
||||
uploads:
|
||||
title: "Yüklemeler"
|
||||
description: "YZ kişiniz, dâhil edilen dosyaların içeriğini arayabilir ve referans verebilir. Yüklenen dosyalar düz metin (.txt) veya markdown (.md) olarak biçimlendirilmelidir."
|
||||
button: "Dosya ekle"
|
||||
filter: "Yüklemeleri filtrele"
|
||||
indexed: "İndekslendi"
|
||||
|
@ -219,9 +220,7 @@ tr_TR:
|
|||
short_title: "LLM'ler"
|
||||
no_llms: "Henüz LLM yok"
|
||||
new: "Yeni Model"
|
||||
display_name: "Gösterilecek ad"
|
||||
name: "Model adı"
|
||||
provider: "Modeli barındıran hizmet"
|
||||
display_name: "Ad"
|
||||
tokenizer: "Token'laştırıcı"
|
||||
max_prompt_tokens: "İstem için token sayısı"
|
||||
url: "Modeli barındıran hizmetin URL'si"
|
||||
|
@ -236,8 +235,6 @@ tr_TR:
|
|||
confirm_delete: Bu modeli silmek istediğinizden emin misiniz?
|
||||
delete: Sil
|
||||
preconfigured_llms: "LLM'nizi seçin"
|
||||
preconfigured:
|
||||
none: "Manuel olarak yapılandırın..."
|
||||
next:
|
||||
title: "İleri"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ tr_TR:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "Özel"
|
||||
provider_fields:
|
||||
access_key_id: "AWS Bedrock Erişim anahtarı Kimliği"
|
||||
region: "AWS Bedrock Bölgesi"
|
||||
|
|
|
@ -40,6 +40,7 @@ ug:
|
|||
save: ساقلا
|
||||
enabled: "قوزغىتىلدى؟"
|
||||
delete: ئۆچۈر
|
||||
rag:
|
||||
uploads:
|
||||
title: "يۈكلەنمە"
|
||||
uploading: "يۈكلەۋاتىدۇ..."
|
||||
|
@ -59,6 +60,7 @@ ug:
|
|||
test_modal:
|
||||
run: "سىناقنى ئىجرا قىل"
|
||||
llms:
|
||||
display_name: "ئىسمى"
|
||||
save: "ساقلا"
|
||||
edit: "تەھرىر"
|
||||
back: "كەينى"
|
||||
|
@ -70,6 +72,7 @@ ug:
|
|||
success: "مۇۋەپپەقىيەتلىك!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "ئىختىيارى"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "ۋاز كەچ"
|
||||
|
|
|
@ -40,6 +40,7 @@ uk:
|
|||
save: Зберегти
|
||||
enabled: "Включено?"
|
||||
delete: Видалити
|
||||
rag:
|
||||
uploads:
|
||||
title: "Завантаження"
|
||||
uploading: "Надсилання…"
|
||||
|
@ -59,6 +60,7 @@ uk:
|
|||
test_modal:
|
||||
run: "Виконати Тест"
|
||||
llms:
|
||||
display_name: "Імʼя"
|
||||
save: "Зберегти"
|
||||
edit: "Редагувати"
|
||||
back: "Назад"
|
||||
|
@ -70,6 +72,7 @@ uk:
|
|||
success: "Успіх!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "Користувацька"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Скасувати"
|
||||
|
|
|
@ -38,6 +38,7 @@ ur:
|
|||
save: محفوظ کریں
|
||||
enabled: "فعال؟"
|
||||
delete: مٹائیں
|
||||
rag:
|
||||
uploads:
|
||||
title: "اَپ لوڈز"
|
||||
uploading: "اَپ لوڈ کیا جا رہا ہے..."
|
||||
|
@ -56,6 +57,7 @@ ur:
|
|||
test_modal:
|
||||
run: "ٹیسٹ چلائیں"
|
||||
llms:
|
||||
display_name: "نام"
|
||||
save: "محفوظ کریں"
|
||||
edit: "ترمیم کریں"
|
||||
back: "واپس"
|
||||
|
@ -67,6 +69,7 @@ ur:
|
|||
success: "کامیابی!"
|
||||
providers:
|
||||
google: "گُوگَل"
|
||||
fake: "اپنی مرضی کا"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "منسوخ"
|
||||
|
|
|
@ -38,6 +38,7 @@ vi:
|
|||
save: Lưu lại
|
||||
enabled: "Kích hoạt"
|
||||
delete: Xóa
|
||||
rag:
|
||||
uploads:
|
||||
title: "Tải lên"
|
||||
uploading: "Đang đăng "
|
||||
|
@ -56,6 +57,7 @@ vi:
|
|||
test_modal:
|
||||
run: "Chạy thử nghiệm"
|
||||
llms:
|
||||
display_name: "Tên"
|
||||
save: "Lưu lại"
|
||||
edit: "Sửa"
|
||||
back: "Quay lại"
|
||||
|
@ -67,6 +69,7 @@ vi:
|
|||
success: "Thành công!"
|
||||
providers:
|
||||
google: "G"
|
||||
fake: "Tùy biến"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "Huỷ"
|
||||
|
|
|
@ -135,8 +135,6 @@ zh_CN:
|
|||
question_consolidator_llm: 问题整合器的语言模型
|
||||
question_consolidator_llm_help: 用于问题整合器的语言模型,您可以选择功能较弱的模型来节省成本。
|
||||
system_prompt: 系统提示
|
||||
show_indexing_options: "显示上传选项"
|
||||
hide_indexing_options: "隐藏上传选项"
|
||||
allow_chat: "允许聊天"
|
||||
allow_chat_help: "如果启用,允许的群组中的用户可以向此角色发送私信"
|
||||
save: 保存
|
||||
|
@ -156,10 +154,6 @@ zh_CN:
|
|||
priority: 优先
|
||||
priority_help: 优先角色会在角色列表的顶部向用户显示。如果多个角色都具有优先级,将按字母顺序排序。
|
||||
tool_options: "工具选项"
|
||||
rag_chunk_tokens: "上传分块词元"
|
||||
rag_chunk_tokens_help: "RAG 模型中为每个分块使用的词元数。增大词元数会增加 AI 可以使用的上下文数量。(更改词元数将为所有上传内容重新编制索引)"
|
||||
rag_chunk_overlap_tokens: "上传分块重叠词元"
|
||||
rag_chunk_overlap_tokens_help: "RAG 模型中分块之间重叠的词元数。(更改词元数将为所有上传内容重新编制索引)"
|
||||
rag_conversation_chunks: "搜索对话分块"
|
||||
rag_conversation_chunks_help: "为 RAG 模型搜索使用的分块数。增加分块数会增加 AI 可以使用的上下文数量。"
|
||||
what_are_personas: "什么是 AI 角色?"
|
||||
|
@ -173,9 +167,16 @@ zh_CN:
|
|||
#### 对 AI 角色的群组特定的访问
|
||||
|
||||
此外,您还可以对其进行设置,以便某些用户群组可以访问特定角色。这意味着您可以为论坛的不同版块设置不同的 AI 行为,从而进一步增强社区互动的多元化和丰富性。
|
||||
rag:
|
||||
options:
|
||||
rag_chunk_tokens: "上传分块词元"
|
||||
rag_chunk_tokens_help: "RAG 模型中为每个分块使用的词元数。增大词元数会增加 AI 可以使用的上下文数量。(更改词元数将为所有上传内容重新编制索引)"
|
||||
rag_chunk_overlap_tokens: "上传分块重叠词元"
|
||||
rag_chunk_overlap_tokens_help: "RAG 模型中分块之间重叠的词元数。(更改词元数将为所有上传内容重新编制索引)"
|
||||
show_indexing_options: "显示上传选项"
|
||||
hide_indexing_options: "隐藏上传选项"
|
||||
uploads:
|
||||
title: "上传"
|
||||
description: "您的 AI 角色将能够搜索和引用所包含文件的内容。上传的文件应格式化为纯文本 (.txt) 或 markdown (.md)。"
|
||||
button: "添加文件"
|
||||
filter: "筛选上传"
|
||||
indexed: "已编制索引"
|
||||
|
@ -219,9 +220,7 @@ zh_CN:
|
|||
short_title: "LLM"
|
||||
no_llms: "没有 LLM"
|
||||
new: "新建模型"
|
||||
display_name: "用于显示的名称"
|
||||
name: "模型名称"
|
||||
provider: "托管模型的服务"
|
||||
display_name: "名称"
|
||||
tokenizer: "词元生成器"
|
||||
max_prompt_tokens: "提示的词元数"
|
||||
url: "托管模型的服务的 URL"
|
||||
|
@ -236,8 +235,6 @@ zh_CN:
|
|||
confirm_delete: 确定要删除此模型吗?
|
||||
delete: 删除
|
||||
preconfigured_llms: "选择您的 LLM"
|
||||
preconfigured:
|
||||
none: "手动配置..."
|
||||
next:
|
||||
title: "下一步"
|
||||
tests:
|
||||
|
@ -259,6 +256,7 @@ zh_CN:
|
|||
google: "Google"
|
||||
azure: "Azure"
|
||||
ollama: "Ollama"
|
||||
fake: "自定义"
|
||||
provider_fields:
|
||||
access_key_id: "AWS Bedrock 访问密钥 ID"
|
||||
region: "AWS Bedrock 区域"
|
||||
|
|
|
@ -36,6 +36,7 @@ zh_TW:
|
|||
save: 保存
|
||||
enabled: "啟用?"
|
||||
delete: 刪除
|
||||
rag:
|
||||
uploads:
|
||||
title: "上傳檔案"
|
||||
uploading: "上傳中..."
|
||||
|
@ -54,6 +55,7 @@ zh_TW:
|
|||
test_modal:
|
||||
run: "執行測試"
|
||||
llms:
|
||||
display_name: "名字"
|
||||
save: "保存"
|
||||
edit: "編輯"
|
||||
back: "上一步"
|
||||
|
@ -65,6 +67,7 @@ zh_TW:
|
|||
success: "成功!"
|
||||
providers:
|
||||
google: "Google"
|
||||
fake: "客製"
|
||||
ai_helper:
|
||||
context_menu:
|
||||
cancel: "取消"
|
||||
|
|
Loading…
Reference in New Issue