Update translations (#814)

This commit is contained in:
Discourse Translator Bot 2024-10-01 23:51:12 -07:00 committed by GitHub
parent 7325fb21ab
commit 7ae6c17236
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194
47 changed files with 260 additions and 162 deletions

View File

@ -135,8 +135,6 @@ ar:
question_consolidator_llm: نموذج اللغة لتوحيد الأسئلة
question_consolidator_llm_help: نموذج اللغة الذي سيتم استخدامه لتوحيد الأسئلة، يمكنك اختيار نموذج أقل قوة للتوفير في التكاليف.
system_prompt: رسالة مطالبة النظام
show_indexing_options: "إظهار خيارات التحميل"
hide_indexing_options: "إخفاء خيارات التحميل"
allow_chat: "السماح بالدردشة"
allow_chat_help: "إذا تم التفعيل، يمكن للمستخدمين في المجموعات المسموح بها إرسال رسالة مباشرة إلى هذه الشخصية"
save: حفظ
@ -156,10 +154,6 @@ ar:
priority: الأولوية
priority_help: يتم عرض الشخصيات ذات الأولوية للمستخدمين في أعلى قائمة الشخصيات. إذا كانت الأولوية لعدة أشخاص، فسيتم فرزهم أبجديًا.
tool_options: "خيارات الأداة"
rag_chunk_tokens: "تحميل أجزاء الرموز"
rag_chunk_tokens_help: "عدد الرموز المميزة التي سيتم استخدامها لكل جزء في نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
rag_chunk_overlap_tokens: "تحميل أجزاء الرموز المتداخلة"
rag_chunk_overlap_tokens_help: "عدد الرموز المميزة التي ستتداخل بين الأجزاء في نموذج RAG. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
rag_conversation_chunks: "البحث في أجزاء المحادثة"
rag_conversation_chunks_help: "عدد الأجزاء التي سيتم استخدامها لإي عمليات البحث ضمن نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة."
what_are_personas: "ما هي شخصيات الذكاء الاصطناعي؟"
@ -173,9 +167,16 @@ ar:
#### وصول خاص بالمجموعة إلى شخصيات الذكاء الاصطناعي
علاوةً على ذلك، يمكنك إعداده بحيث تتمكن مجموعات معيَّنة من المستخدمين من الوصول إلى أشخاص محدَّدين. وهذا يعني أنه يمكنك الحصول على سلوكيات مختلفة للذكاء الاصطناعي لأقسام مختلفة في المنتدى الخاص بك، ما يزيد من تعزيز تنُّوع مجتمعك وثراء تفاعلاته.
rag:
options:
rag_chunk_tokens: "تحميل أجزاء الرموز"
rag_chunk_tokens_help: "عدد الرموز المميزة التي سيتم استخدامها لكل جزء في نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
rag_chunk_overlap_tokens: "تحميل أجزاء الرموز المتداخلة"
rag_chunk_overlap_tokens_help: "عدد الرموز المميزة التي ستتداخل بين الأجزاء في نموذج RAG. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)"
show_indexing_options: "إظهار خيارات التحميل"
hide_indexing_options: "إخفاء خيارات التحميل"
uploads:
title: "التحميلات"
description: "ستكون شخصية الذكاء الاصطناعي الخاصة بك قادرة على البحث والإشارة إلى محتوى الملفات المضمَّنة. يجب تنسيق الملفات التي تم تحميلها بتنسيق plaintext (.txt) أو markdown (.md)."
button: "إضافة الملفات"
filter: "تصفية التحميلات"
indexed: "تمت الفهرسة"
@ -219,9 +220,7 @@ ar:
short_title: "نماذج اللغة الكبيرة"
no_llms: "لا توجد نماذج لغة كبيرة بعد"
new: "نموذج جديد"
display_name: "الاسم المراد عرضه"
name: "اسم النموذج"
provider: "خدمة استضافة النموذج"
display_name: "الاسم"
tokenizer: "أداة الترميز"
max_prompt_tokens: "عدد الرموز المميزة لرسالة المطالبة"
url: "عنوان URL لخدمة استضافة النموذج"
@ -236,8 +235,6 @@ ar:
confirm_delete: هل تريد بالتأكيد حذف هذا النموذج؟
delete: حذف
preconfigured_llms: "حدِّد نموذج اللغة الكبير الخاص بك"
preconfigured:
none: "قم بالتكوين يدويًا..."
next:
title: "التالي"
tests:
@ -259,6 +256,7 @@ ar:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "مخصَّصة"
provider_fields:
access_key_id: "معرِّف مفتاح الوصول إلى AWS Bedrock"
region: "منطقة AWS Bedrock"

View File

@ -35,6 +35,7 @@ be:
user: карыстальнік
save: Захаваць
delete: выдаляць
rag:
uploads:
title: "Загрузкі"
uploading: "Запампоўванне ..."
@ -50,6 +51,7 @@ be:
next:
title: "Далей"
llms:
display_name: "імя"
save: "Захаваць"
edit: "рэдагаваць"
back: "Назад"

View File

@ -38,6 +38,7 @@ bg:
save: Запази
enabled: "Да е включен?"
delete: Изтрий
rag:
uploads:
uploading: "Качва се..."
tools:
@ -52,6 +53,7 @@ bg:
next:
title: "Напред"
llms:
display_name: "Име"
save: "Запази "
edit: "Редактирай"
back: "Назад"
@ -60,6 +62,7 @@ bg:
title: "Напред"
providers:
google: "Google"
fake: "По избор"
ai_helper:
context_menu:
cancel: "Прекрати"

View File

@ -38,6 +38,7 @@ bs_BA:
save: Save
enabled: "Omogućen?"
delete: Delete
rag:
uploads:
title: "Uploads"
uploading: "Učitavanje..."
@ -56,6 +57,7 @@ bs_BA:
test_modal:
run: "Pokreni test"
llms:
display_name: "Ime"
save: "Save"
edit: "Edit"
back: "Prethodno"
@ -67,6 +69,7 @@ bs_BA:
success: "Uspjeh!"
providers:
google: "Google"
fake: "Custom"
ai_helper:
context_menu:
cancel: "Odustani"

View File

@ -38,6 +38,7 @@ ca:
save: Desa
enabled: "Activat?"
delete: Suprimeix
rag:
uploads:
title: "Càrregues"
uploading: "Carregant..."
@ -56,6 +57,7 @@ ca:
test_modal:
run: "Executa el test"
llms:
display_name: "Nom"
save: "Desa"
edit: "Edita"
back: "Enrere"
@ -67,6 +69,7 @@ ca:
success: "Èxit!"
providers:
google: "Google"
fake: "Personalitzat"
ai_helper:
context_menu:
cancel: "Cancel·la"

View File

@ -38,6 +38,7 @@ cs:
save: Uložit
enabled: "Zapnuto?"
delete: Smazat
rag:
uploads:
title: "Nahrané soubory"
uploading: "Nahrává se..."
@ -56,6 +57,7 @@ cs:
test_modal:
run: "Spustit test"
llms:
display_name: "Jméno"
save: "Uložit"
edit: "Upravit"
back: "Zpět"
@ -67,6 +69,7 @@ cs:
success: "Úspěch!"
providers:
google: "Google"
fake: "Přizpůsobené"
ai_helper:
context_menu:
cancel: "Zrušit"

View File

@ -38,6 +38,7 @@ da:
save: Gem
enabled: "Aktiveret?"
delete: Slet
rag:
uploads:
title: "Overførsler"
uploading: "Overfører…"
@ -56,6 +57,7 @@ da:
test_modal:
run: "Kør test"
llms:
display_name: "Navn"
save: "Gem"
edit: "Rediger"
back: "Tilbage"
@ -67,6 +69,7 @@ da:
success: "Succes!"
providers:
google: "Google"
fake: "Tilpasset"
ai_helper:
context_menu:
cancel: "Annuller"

View File

@ -140,8 +140,6 @@ de:
question_consolidator_llm: Sprachmodell für Fragenkonsolidierer
question_consolidator_llm_help: Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen.
system_prompt: System-Eingabeaufforderung
show_indexing_options: "Upload-Optionen anzeigen"
hide_indexing_options: "Upload-Optionen ausblenden"
allow_chat: "Chat zulassen"
allow_chat_help: "Wenn diese Option aktiviert ist, können Nutzer in erlaubten Gruppen dieser Persona eine DN senden"
save: Speichern
@ -161,10 +159,6 @@ de:
priority: Priorität
priority_help: Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert.
tool_options: "Tool-Optionen"
rag_chunk_tokens: "Chunk-Token hochladen"
rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen"
rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
rag_conversation_chunks: "Suchunterhaltungs-Chunks"
rag_conversation_chunks_help: "Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann."
what_are_personas: "Was sind KI-Personas?"
@ -178,9 +172,17 @@ de:
#### Gruppenspezifischer Zugriff auf KI-Personas
Außerdem kannst du die Funktion so einrichten, dass bestimmte Nutzergruppen Zugriff auf gewisse Personas haben. Das bedeutet, dass du für verschiedene Bereiche deines Forums unterschiedliche KI-Verhaltensweisen verwenden kannst, was die Vielfalt und Fülle der Interaktionen deiner Community weiter verbessert.
rag:
options:
rag_chunk_tokens: "Chunk-Token hochladen"
rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen"
rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
show_indexing_options: "Upload-Optionen anzeigen"
hide_indexing_options: "Upload-Optionen ausblenden"
uploads:
title: "Uploads"
description: "Deine KI-Persona wird in der Lage sein, den Inhalt der beigefügten Dateien zu durchsuchen und zu referenzieren. Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein."
description: "Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein."
button: "Dateien hinzufügen"
filter: "Uploads filtern"
indexed: "Indiziert"
@ -224,9 +226,9 @@ de:
short_title: "LLM"
no_llms: "Noch keine LLM"
new: "Neues Modell"
display_name: "Anzeigename"
name: "Modellname"
provider: "Dienst, der das Modell hostet"
display_name: "Name"
name: "Modell-ID"
provider: "Anbieter"
tokenizer: "Tokenizer"
max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung"
url: "URL des Dienstes, der das Modell hostet"
@ -244,9 +246,25 @@ de:
in_use_warning:
one: "Dieses Modell wird derzeit von der Einstellung %{settings} verwendet. Wenn die Funktion falsch konfiguriert ist, funktioniert sie nicht wie erwartet."
other: "Dieses Modell wird derzeit von den folgenden Einstellungen verwendet: %{settings}. Bei einer falschen Konfiguration funktionieren die Funktionen nicht wie erwartet. "
model_description:
none: "Allgemeine Einstellungen, die für die meisten Sprachmodelle funktionieren"
anthropic-claude-3-5-sonnet: "Das intelligenteste Modell der Anthropologie"
anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben"
anthropic-claude-3-sonnet: "Ausgewogenheit zwischen Geschwindigkeit und Intelligenz"
anthropic-claude-3-haiku: "Schnell und kosteneffizient"
google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann"
google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation"
open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation"
open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben"
open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben"
configured:
title: "Konfigurierte LLMs"
preconfigured_llms: "Wähle dein LLM"
preconfigured:
none: "Manuell konfigurieren …"
title_no_llms: "Wähle eine Vorlage aus, um loszulegen"
title: "Unkonfigurierte LLM-Vorlagen"
fake: "Manuelle Konfiguration"
button: "Einrichten"
next:
title: "Nächstes"
tests:
@ -270,6 +288,7 @@ de:
ollama: "Ollama"
CDCK: "CDCK"
samba_nova: "SambaNova"
fake: "Benutzerdefiniert"
provider_fields:
access_key_id: "AWS-Bedrock-Zugangsschlüssel-ID"
region: "AWS-Bedrock-Region"

View File

@ -38,6 +38,7 @@ el:
save: Αποθήκευση
enabled: "Ενεργοποιημένο;"
delete: Σβήσιμο
rag:
uploads:
title: "Μεταφορτώσεις"
uploading: "Επιφόρτωση..."
@ -56,6 +57,7 @@ el:
test_modal:
run: "Εκτέλεση δοκιμής"
llms:
display_name: "Όνομα"
save: "Αποθήκευση"
edit: "Επεξεργασία"
back: "Πίσω"
@ -67,6 +69,7 @@ el:
success: "Επιτυχία!"
providers:
google: "Google"
fake: "Προσαρμοσμένο"
ai_helper:
context_menu:
cancel: "Ακύρωση"

View File

@ -135,8 +135,6 @@ es:
question_consolidator_llm: Modelo lingüístico para el consolidador de preguntas
question_consolidator_llm_help: El modelo lingüístico a utilizar para el consolidador de preguntas, puedes elegir un modelo menos potente para ahorrar costes.
system_prompt: Aviso del sistema
show_indexing_options: "Mostrar opciones de carga"
hide_indexing_options: "Ocultar opciones de carga"
allow_chat: "Permitir chat"
allow_chat_help: "Si está activada, los usuarios de los grupos permitidos pueden DM a esta persona"
save: Guardar
@ -156,10 +154,6 @@ es:
priority: Prioridad
priority_help: Las personas prioritarias se muestran a los usuarios en la parte superior de la lista de personas. Si varias personas tienen prioridad, se ordenarán alfabéticamente.
tool_options: "Opciones de herramientas"
rag_chunk_tokens: "Cargar tokens de lotes"
rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)"
rag_chunk_overlap_tokens: "Cargar tokens de solapamiento de fragmentos"
rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)"
rag_conversation_chunks: "Buscar fragmentos de conversación"
rag_conversation_chunks_help: "El número de fragmentos a utilizar para las búsquedas del modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA."
what_are_personas: "¿Qué son las Personas de IA?"
@ -173,9 +167,16 @@ es:
#### Acceso específico de grupo a Personas de IA
Además, puedes configurarlo para que determinados grupos de usuarios tengan acceso a personas concretas. Esto significa que puedes tener diferentes comportamientos de IA para diferentes secciones de tu foro, mejorando aún más la diversidad y riqueza de las interacciones de tu comunidad.
rag:
options:
rag_chunk_tokens: "Cargar tokens de lotes"
rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)"
rag_chunk_overlap_tokens: "Cargar tokens de solapamiento de fragmentos"
rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)"
show_indexing_options: "Mostrar opciones de carga"
hide_indexing_options: "Ocultar opciones de carga"
uploads:
title: "Subidos"
description: "Tu persona de IA podrá buscar y consultar el contenido de los archivos incluidos. Los archivos subidos deben tener formato de texto plano (.txt) o marcado (.md)."
button: "Añadir archivos"
filter: "Filtrar cargas"
indexed: "Indexado"
@ -219,9 +220,7 @@ es:
short_title: "LLM"
no_llms: "Aún no hay LLM"
new: "Nuevo modelo"
display_name: "Nombre para mostrar"
name: "Nombre del modelo"
provider: "Servicio de alojamiento del modelo"
display_name: "Nombre"
tokenizer: "Tokenizador"
max_prompt_tokens: "Número de tokens para la solicitud"
url: "URL del servicio que aloja el modelo"
@ -236,8 +235,6 @@ es:
confirm_delete: '¿Seguro que quieres eliminar este modelo?'
delete: Eliminar
preconfigured_llms: "Selecciona tu LLM"
preconfigured:
none: "Configurar manualmente..."
next:
title: "Siguiente"
tests:
@ -259,6 +256,7 @@ es:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Personalizado"
provider_fields:
access_key_id: "ID de clave de acceso a AWS Bedrock"
region: "Región de AWS Bedrock"

View File

@ -38,6 +38,7 @@ et:
save: Salvesta
enabled: "Sisse lülitatud?"
delete: Kustuta
rag:
uploads:
title: "Üleslaadimised"
uploading: "Laen üles..."
@ -53,6 +54,7 @@ et:
next:
title: "Järgmine"
llms:
display_name: "Nimi"
save: "Salvesta"
edit: "Muuda"
back: "Tagasi"
@ -63,6 +65,7 @@ et:
success: "Korras!"
providers:
google: "Google"
fake: "Individuaalne"
ai_helper:
context_menu:
cancel: "Tühista"

View File

@ -60,6 +60,7 @@ fa_IR:
save: ذخیره
enabled: "فعال شده؟"
delete: حذف
rag:
uploads:
title: "بارگذاری‌ها"
uploading: "در حال بار گذاری..."
@ -79,9 +80,7 @@ fa_IR:
run: "اجرای آزمایش"
llms:
new: "مدل جدید"
display_name: "نام برای نمایش"
name: "نام مدل"
provider: "سرویس میزبانی مدل"
display_name: "نام"
save: "ذخیره"
edit: "ویرایش"
back: "بازگشت"
@ -95,6 +94,7 @@ fa_IR:
failure: "در حال ارتباط با مدل این خطا رخ داد: %{error}"
providers:
google: "گوگل"
fake: "سفارشی"
related_topics:
title: "موضوعات مرتبط"
ai_helper:

View File

@ -135,8 +135,6 @@ fi:
question_consolidator_llm: Kielimalli kysymysten yhdistäjälle
question_consolidator_llm_help: Kysymysten yhdistäjälle käytettävä kielimalli, voit valita vähemmän tehokkaan mallin kustannusten säästämiseksi.
system_prompt: Järjestelmäkehote
show_indexing_options: "Näytä latausasetukset"
hide_indexing_options: "Piilota latausasetukset"
allow_chat: "Salli chat"
allow_chat_help: "Jos tämä on käytössä, sallittujen ryhmien käyttäjät voivat lähettää yksityisviestin tälle persoonalle"
save: Tallenna
@ -156,10 +154,6 @@ fi:
priority: Prioriteetti
priority_help: Prioriteettipersoonat näytetään käyttäjille ensimmäisinä persoonaluettelossa. Jos useilla persoonilla on prioriteetti, ne järjestetään aakkosjärjestyksessä.
tool_options: "Työkaluasetukset"
rag_chunk_tokens: "Latauslohkotokenit"
rag_chunk_tokens_help: "Kullekin lohkolle käytettävien tokenien määrä RAG-mallissa. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen)."
rag_chunk_overlap_tokens: "Latauslohkon päällekkäiset tokenit"
rag_chunk_overlap_tokens_help: "Päällekkäisten tokenien määrä lohkojen välillä RAG-mallissa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen). "
rag_conversation_chunks: "Hakukeskustelulohkot"
rag_conversation_chunks_help: "RAG-mallin hauissa käytettävien lohkojen määrä. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa."
what_are_personas: "Mitä ovat tekoälypersoonat?"
@ -173,9 +167,16 @@ fi:
#### Ryhmäkohtainen tekoälypersoonien käyttöoikeus
Lisäksi voit määrittää siten, että tietyillä käyttäjäryhmillä on pääsy tiettyihin persooniin. Tämä tarkoittaa, että sinulla voi olla erilaisia tekoälykäyttäytymismalleja foorumisi eri osioissa, mikä lisää entisestään yhteisösi vuorovaikutuksen monimuotoisuutta ja monipuolisuutta.
rag:
options:
rag_chunk_tokens: "Latauslohkotokenit"
rag_chunk_tokens_help: "Kullekin lohkolle käytettävien tokenien määrä RAG-mallissa. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen)."
rag_chunk_overlap_tokens: "Latauslohkon päällekkäiset tokenit"
rag_chunk_overlap_tokens_help: "Päällekkäisten tokenien määrä lohkojen välillä RAG-mallissa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen). "
show_indexing_options: "Näytä latausasetukset"
hide_indexing_options: "Piilota latausasetukset"
uploads:
title: "Lataukset"
description: "Tekoälypersoonasi voi hakea ja viitata sisällytettävien tiedostojen sisältöön. Verkkoon ladatut tiedostot tulisi muotoilla tavalliseksi tekstiksi (.txt) tai markdown-muotoon (.md)."
button: "Lisää tiedostoja"
filter: "Suodata latauksia"
indexed: "Indeksoitu"
@ -219,9 +220,7 @@ fi:
short_title: "LLM:t"
no_llms: "LLM:iä ei ole vielä"
new: "Uusi malli"
display_name: "Näytettävä nimi"
name: "Mallin nimi"
provider: "Mallia isännöivä palvelu"
display_name: "Nimi"
tokenizer: "Tokenisoija"
max_prompt_tokens: "Kehotteen tokenien määrä"
url: "Mallia isännöivän palvelun URL-osoite"
@ -236,8 +235,6 @@ fi:
confirm_delete: Oletko varma, että haluat poistaa tämän mallin?
delete: Poista
preconfigured_llms: "Valitse LLM"
preconfigured:
none: "Määritä manuaalisesti..."
next:
title: "Seuraava"
tests:
@ -259,6 +256,7 @@ fi:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Mukautettu"
provider_fields:
access_key_id: "AWS Bedrockin käyttöavaintunnus"
region: "AWS Bedrockin alue"

View File

@ -135,8 +135,6 @@ fr:
question_consolidator_llm: Modèle linguistique pour le consolidateur de questions
question_consolidator_llm_help: Le modèle linguistique à utiliser pour le consolidateur de questions, vous pouvez choisir un modèle moins puissant pour réduire les coûts.
system_prompt: Invite du système
show_indexing_options: "Afficher les options de téléversement"
hide_indexing_options: "Masquer les options de téléversement"
allow_chat: "Autoriser la messagerie instantanée"
allow_chat_help: "Si cette option est activée, les utilisateurs des groupes autorisés peuvent envoyer un DM à ce personnage"
save: Enregistrer
@ -156,10 +154,6 @@ fr:
priority: Priorité
priority_help: Les personnages prioritaires sont affichés aux utilisateurs en haut de la liste des personnages. Si plusieurs personnages sont prioritaires, ils seront triés par ordre alphabétique.
tool_options: "Options de l'outil"
rag_chunk_tokens: "Télécharger des jetons de fragments"
rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)"
rag_chunk_overlap_tokens: "Téléverser des jetons de chevauchement de morceaux"
rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)"
rag_conversation_chunks: "Rechercher des morceaux de conversation"
rag_conversation_chunks_help: "Le nombre de segments à utiliser pour les recherches de modèles RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser."
what_are_personas: "Que sont les personnages IA ?"
@ -173,9 +167,16 @@ fr:
#### Accès spécifique à un groupe aux personnages IA
De plus, vous pouvez les configurer pour que certains groupes d'utilisateurs aient accès à des personnages spécifiques. Cela signifie que vous pouvez avoir différents comportements d'IA pour différentes sections de votre forum, et améliorer ainsi encore la diversité et la richesse des interactions de votre communauté.
rag:
options:
rag_chunk_tokens: "Télécharger des jetons de fragments"
rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)"
rag_chunk_overlap_tokens: "Téléverser des jetons de chevauchement de morceaux"
rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)"
show_indexing_options: "Afficher les options de téléversement"
hide_indexing_options: "Masquer les options de téléversement"
uploads:
title: "Fichiers envoyés"
description: "Votre personnage IA pourra rechercher et référencer le contenu des fichiers inclus. Les fichiers téléversés doivent être formatés en texte brut (.txt) ou en markdown (.md)."
button: "Ajouter des fichiers"
filter: "Filtrer les téléversements"
indexed: "Indexé"
@ -219,9 +220,7 @@ fr:
short_title: "LLM"
no_llms: "Pas encore de LLM"
new: "Nouveau modèle"
display_name: "Nom à afficher"
name: "Nom du modèle"
provider: "Service hébergeant le modèle"
display_name: "Nom"
tokenizer: "Tokéniseur"
max_prompt_tokens: "Nombre de jetons pour l'invite"
url: "URL du service hébergeant le modèle"
@ -236,8 +235,6 @@ fr:
confirm_delete: Voulez-vous vraiment supprimer ce modèle ?
delete: Supprimer
preconfigured_llms: "Sélectionnez votre LLM"
preconfigured:
none: "Configurer manuellement..."
next:
title: "Suivant"
tests:
@ -259,6 +256,7 @@ fr:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Personnalisé"
provider_fields:
access_key_id: "ID de clé d'accès AWS Bedrock"
region: "Région AWS Bedrock"

View File

@ -38,6 +38,7 @@ gl:
save: Gardar
enabled: "Activado?"
delete: Eliminar
rag:
uploads:
title: "Cargas"
uploading: "Cargando..."
@ -56,6 +57,7 @@ gl:
test_modal:
run: "Executar proba"
llms:
display_name: "Nome"
save: "Gardar"
edit: "Editar"
back: "Volver"
@ -67,6 +69,7 @@ gl:
success: "Feito!"
providers:
google: "Google"
fake: "Personalizado"
ai_helper:
context_menu:
cancel: "Cancelar"

View File

@ -140,8 +140,6 @@ he:
question_consolidator_llm: מודל שפה למגבש השאלות
question_consolidator_llm_help: מודל השפה לשימוש עבור מגבש השאלות, אפשר לבחור במודל פחות חזק כדי לחסוך בעלויות.
system_prompt: בקשת מערכת
show_indexing_options: "הצגת אפשרויות העלאה"
hide_indexing_options: "הסתרת אפשרויות העלאה"
allow_chat: "לאפשר צ׳אט"
allow_chat_help: "אם האפשרות פעילה, משתמשים בקבוצות מורשות יכולים לשלוח לדמות הזאת הודעות פרטיות"
save: שמירה
@ -161,10 +159,6 @@ he:
priority: עדיפות
priority_help: דמויות בעדיפות גבוהה מוצגות למשתמשים בראש רשימת הדמויות. אם מספר דמויות הן בעדיפות הן תסודרנה לפי האלפבית.
tool_options: "אפשרויות כלי"
rag_chunk_tokens: "העלאת אסימוני חלקים"
rag_chunk_tokens_help: "מספר האסימונים לשימוש לכל נתח במודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
rag_chunk_overlap_tokens: "העלאת אסימוני חפיפת חלקים"
rag_chunk_overlap_tokens_help: "מספר האסימון לחפיפה בין נתחים במודל ה־RAG. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
rag_conversation_chunks: "חיפוש בחלקי הדיון"
rag_conversation_chunks_help: "מספר הנתחים לשימוש לחיפושים עם מודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית."
what_are_personas: "מה הן דמויות בינה מלאכותית?"
@ -178,9 +172,16 @@ he:
#### גישה קבוצתית ייעודית לדמויות בינה מלאכותית
יתרה מכך, אפשר להגדיר אותה כך שרק לקבוצות מסוימות תהיינה גישה לדמויות מסוימות. משמעות הדבר היא שאפשר לנהל התנהגויות שונות לבינה המלאכותית לאזורים שונים בפורום שלך, ובכך להרחיב את הגיוון ואת העושר של ההתנהלות בקהילה שלך.
rag:
options:
rag_chunk_tokens: "העלאת אסימוני חלקים"
rag_chunk_tokens_help: "מספר האסימונים לשימוש לכל נתח במודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
rag_chunk_overlap_tokens: "העלאת אסימוני חפיפת חלקים"
rag_chunk_overlap_tokens_help: "מספר האסימון לחפיפה בין נתחים במודל ה־RAG. (שינוי יסדר את כל ההעלאות במפתח מחדש)"
show_indexing_options: "הצגת אפשרויות העלאה"
hide_indexing_options: "הסתרת אפשרויות העלאה"
uploads:
title: "העלאות"
description: "דמות הבינה המלאכותית שלך תוכל לחפש ולהפנות לתוכן של קבצים כלולים. קבצים שהועלו אמורים להיות בתסדירי טקסט פשוט (.txt) או markdown (.md)."
button: "הוספת קבצים"
filter: "סינון העלאות"
indexed: "סודר במפתח"
@ -224,9 +225,9 @@ he:
short_title: "LLMים"
no_llms: "אין LLMים עדיין"
new: "מודל חדש"
display_name: "שם להצגה"
name: "שם המודל"
provider: "השירות שמארח את המודל"
display_name: "שם"
name: "מזהה מודל"
provider: "ספק"
tokenizer: "מפרק לאסימונים"
max_prompt_tokens: "מספר האסימונים לבקשה"
url: "כתובת השירות שמארח את המודל"
@ -246,9 +247,13 @@ he:
two: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. "
many: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. "
other: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. "
model_description:
none: "הגדרות כלליות שעובדות עבור רוב המודלים של השפות"
anthropic-claude-3-5-sonnet: "המודל החכם ביותר של Anthropic"
anthropic-claude-3-opus: "מצטיין בכתיבה ובמשימות מורכבות"
anthropic-claude-3-sonnet: "איזון בין מהירות לחוכמה"
anthropic-claude-3-haiku: "מהיר וחסכוני"
preconfigured_llms: "בחירת ה־LLM שלך"
preconfigured:
none: "הגדרה ידנית…"
next:
title: "הבא"
tests:
@ -272,6 +277,7 @@ he:
ollama: "Ollama"
CDCK: "CDCK"
samba_nova: "SambaNova"
fake: "מותאם"
provider_fields:
access_key_id: "מזהה מפתח גישה ל־AWS Bedrock"
region: "אזור של AWS Bedrock"

View File

@ -38,6 +38,7 @@ hr:
save: Spremi
enabled: "Omogućeno?"
delete: Pobriši
rag:
uploads:
title: "Prijenosi"
uploading: "Učitavanje..."
@ -56,6 +57,7 @@ hr:
test_modal:
run: "Pokreni test"
llms:
display_name: "Ime"
save: "Spremi"
edit: "Uredi"
back: "Natrag"
@ -67,6 +69,7 @@ hr:
success: "Uspjeh!"
providers:
google: "Google"
fake: "Posebna"
ai_helper:
context_menu:
cancel: "Odustani"

View File

@ -38,9 +38,10 @@ hu:
save: Mentés
enabled: "Engedélyezed?"
delete: Törlés
rag:
uploads:
title: "Feltöltések"
uploading: "Feltültés..."
uploading: "Feltöltés…"
tools:
back: "Vissza"
name: "Név"
@ -56,6 +57,7 @@ hu:
test_modal:
run: "Teszt futtatása"
llms:
display_name: "Név"
save: "Mentés"
edit: "Szerkesztés"
back: "Vissza"
@ -67,6 +69,7 @@ hu:
success: "Siker!"
providers:
google: "Google"
fake: "Egyéni"
related_topics:
title: "Kapcsolódó témák"
pill: "Kapcsolódó"

View File

@ -38,6 +38,7 @@ hy:
save: Պահպանել
enabled: "Միացվա՞ծ է:"
delete: Ջնջել
rag:
uploads:
title: "Վերբեռնումներ"
uploading: "Վերբեռնում..."
@ -56,6 +57,7 @@ hy:
test_modal:
run: "Մեկնարկել Փորձարկումը"
llms:
display_name: "Անուն"
save: "Պահպանել"
edit: "Խմբագրել"
back: "Ետ"
@ -67,6 +69,7 @@ hy:
success: "Հաջողություն!"
providers:
google: "Google"
fake: "Մասնավոր"
ai_helper:
context_menu:
cancel: "Չեղարկել"

View File

@ -107,8 +107,6 @@ id:
question_consolidator_llm: Model Bahasa untuk Konsolidator Pertanyaan
question_consolidator_llm_help: Model bahasa yang digunakan untuk konsolidator pertanyaan, Anda dapat memilih model yang kurang kuat untuk menghemat biaya.
system_prompt: Perintah Sistem
show_indexing_options: "Tampilkan Opsi Unggah"
hide_indexing_options: "Sembunyikan Opsi Unggah"
allow_chat: "Izinkan Obrolan"
allow_chat_help: "Jika diaktifkan, pengguna di grup yang diizinkan dapat mengirimkan DM ke persona ini"
save: Simpan
@ -116,8 +114,11 @@ id:
delete: Hapus
temperature: Temperatur
top_p: Top P
rag:
options:
show_indexing_options: "Tampilkan Opsi Unggah"
hide_indexing_options: "Sembunyikan Opsi Unggah"
uploads:
description: "Persona AI Anda akan dapat mencari dan mereferensikan konten file yang disertakan. File yang diunggah harus diformat sebagai teks biasa (.txt) atau markdown (.md)."
uploading: "Mengunggah..."
tools:
back: "Kembali"
@ -131,6 +132,7 @@ id:
test_modal:
run: "Operasikan Tes"
llms:
display_name: "Nama"
save: "Simpan"
edit: "Ubah"
back: "Kembali"

View File

@ -135,8 +135,6 @@ it:
question_consolidator_llm: Modello linguistico per il consolidatore di domande
question_consolidator_llm_help: Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi.
system_prompt: Comando di sistema
show_indexing_options: "Mostra opzioni di caricamento"
hide_indexing_options: "Nascondi opzioni di caricamento"
allow_chat: "Consenti chat"
allow_chat_help: "Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono scrivere in DM questa persona"
save: Salva
@ -156,10 +154,6 @@ it:
priority: Priorità
priority_help: I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico.
tool_options: "Opzioni dello strumento"
rag_chunk_tokens: "Carica token di blocco"
rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco"
rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)"
rag_conversation_chunks: "Cerca blocchi di conversazione"
rag_conversation_chunks_help: "Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare."
what_are_personas: "Cosa sono i personaggi IA?"
@ -173,9 +167,16 @@ it:
#### Accesso specifico per gruppo ai personaggi IA
Inoltre, puoi configurarli in modo che determinati gruppi di utenti abbiano accesso a personaggi specifici. Ciò significa che puoi avere comportamenti IA diversi per le diverse sezioni del tuo forum, migliorando ulteriormente la diversità e la ricchezza delle interazioni della tua community.
rag:
options:
rag_chunk_tokens: "Carica token di blocco"
rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco"
rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)"
show_indexing_options: "Mostra opzioni di caricamento"
hide_indexing_options: "Nascondi opzioni di caricamento"
uploads:
title: "Caricamenti"
description: "Il tuo personaggio IA sarà in grado di cercare e fare riferimento al contenuto dei file inclusi. I file caricati devono essere formattati come testo normale (.txt) o markdown (.md)."
button: "Aggiungi file"
filter: "Filtro caricamenti"
indexed: "Indicizzato"
@ -219,9 +220,7 @@ it:
short_title: "LLM"
no_llms: "Ancora nessun LLM"
new: "Nuovo modello"
display_name: "Nome da visualizzare"
name: "Nome del modello"
provider: "Servizio che ospita il modello"
display_name: "Nome"
tokenizer: "Tokenizzatore"
max_prompt_tokens: "Numero di token per il comando"
url: "URL del servizio che ospita il modello"
@ -236,8 +235,6 @@ it:
confirm_delete: Vuoi davvero eliminare questo modello?
delete: Elimina
preconfigured_llms: "Seleziona il tuo LLM"
preconfigured:
none: "Configura manualmente..."
next:
title: "Avanti"
tests:
@ -259,6 +256,7 @@ it:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Personalizzato"
provider_fields:
access_key_id: "ID chiave di accesso AWS Bedrock"
region: "Regione AWS Bedrock"

View File

@ -135,8 +135,6 @@ ja:
question_consolidator_llm: 質問統合用の言語モデル
question_consolidator_llm_help: 質問統合に使用する言語モデル。それほど強力でないモデルを選択してコストを節約することも可能です。
system_prompt: システムプロンプト
show_indexing_options: "アップロードオプションを表示"
hide_indexing_options: "アップロードオプションを非表示"
allow_chat: "チャットを許可"
allow_chat_help: "有効にすると、許可されているグループのユーザーはこのペルソナに DM を送信できます"
save: 保存
@ -156,10 +154,6 @@ ja:
priority: 優先度
priority_help: 優先ペルソナはペルソナリストの先頭に表示されます。複数のペルソナが優先されている場合は、アルファベット順に並べ替えられます。
tool_options: "ツールのオプション"
rag_chunk_tokens: "チャンクトークンをアップロード"
rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)"
rag_chunk_overlap_tokens: "チャンクオーバーラップトークンをアップロード"
rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)"
rag_conversation_chunks: "会話チャンクを検索"
rag_conversation_chunks_help: "RAG モデル検索に使用するチャンクの数。値を増やすと、AI が使用できるコンテキストの量が増えます。"
what_are_personas: "AI ペルソナとは何ですか?"
@ -173,9 +167,16 @@ ja:
#### AI ペルソナへのアクセスをグループごとに設定
さらに、特定のユーザーグループが特定のペルソナにアクセスできるようにセットアップすることができます。そのため、フォーラムのセクションごとに異なる AI の振る舞いを適用し、コミュニティーの対話の多様性と充実度をさらに強化することができます。
rag:
options:
rag_chunk_tokens: "チャンクトークンをアップロード"
rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)"
rag_chunk_overlap_tokens: "チャンクオーバーラップトークンをアップロード"
rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)"
show_indexing_options: "アップロードオプションを表示"
hide_indexing_options: "アップロードオプションを非表示"
uploads:
title: "アップロード"
description: "AI ペルソナは含まれているファイルのコンテンツを検索して参照できます。アップロードされるファイルはプレーンテキスト (.txt) または Markdown (.md) としてフォーマットされている必要があります。"
button: "ファイルを追加"
filter: "アップロードをフィルタ"
indexed: "インデックスを作成しました"
@ -219,9 +220,7 @@ ja:
short_title: "LLM"
no_llms: "まだ LLM がありません"
new: "新しいモデル"
display_name: "表示する名前"
name: "モデル名"
provider: "モデルをホストするサービス"
display_name: "名前"
tokenizer: "トークナイザ―"
max_prompt_tokens: "プロンプトのトークン数"
url: "モデルをホストするサービスの URL"
@ -236,8 +235,6 @@ ja:
confirm_delete: このモデルを削除してもよろしいですか?
delete: 削除
preconfigured_llms: "LLM を選択してください"
preconfigured:
none: "手動で構成..."
next:
title: "次へ"
tests:
@ -259,6 +256,7 @@ ja:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "カスタム"
provider_fields:
access_key_id: "AWS Bedrock アクセスキー ID"
region: "AWS Bedrock リージョン"

View File

@ -40,6 +40,7 @@ ko:
save: 저장
enabled: "활성화?"
delete: 삭제하기
rag:
uploads:
title: "업로드된 파일"
uploading: "업로드 중..."
@ -58,6 +59,7 @@ ko:
test_modal:
run: "테스트 실행"
llms:
display_name: "그룹명"
save: "저장"
edit: "편집"
back: "뒤로"
@ -69,6 +71,7 @@ ko:
success: "성공!"
providers:
google: "구글"
fake: "사용자 정의"
ai_helper:
context_menu:
cancel: "취소"

View File

@ -76,6 +76,7 @@ lt:
enabled: "Galimas?"
allowed_groups: Leidžiamos grupės
delete: Pašalinti
rag:
uploads:
title: "Įkėlimai"
uploading: "Įkeliama"
@ -94,6 +95,7 @@ lt:
test_modal:
run: "Vykdyti testą"
llms:
display_name: "Vardas"
save: "Išsaugoti"
edit: "Redaguoti"
back: "Atgal"
@ -105,6 +107,7 @@ lt:
success: "Sėkmingai!"
providers:
google: "Google"
fake: "Išskirtinės"
ai_helper:
context_menu:
trigger: "Paklauskite AI"

View File

@ -38,6 +38,7 @@ lv:
save: Saglabāt
enabled: "Ieslēgts?"
delete: Dzēst
rag:
uploads:
title: "Augšupielādes"
uploading: "Notiek ielāde..."
@ -53,6 +54,7 @@ lv:
next:
title: "Nākamais"
llms:
display_name: "Vārds"
save: "Saglabāt"
edit: "Rediģēt"
back: "Atpakaļ"

View File

@ -38,6 +38,7 @@ nb_NO:
save: Lagre
enabled: "Aktivert?"
delete: Slett
rag:
uploads:
title: "Opplastinger"
uploading: "Laster opp…"
@ -56,6 +57,7 @@ nb_NO:
test_modal:
run: "Kjør test"
llms:
display_name: "Navn"
save: "Lagre"
edit: "Endre"
back: "Forrige"
@ -67,6 +69,7 @@ nb_NO:
success: "Suksess!"
providers:
google: "Google"
fake: "Egendefinert"
ai_helper:
context_menu:
cancel: "Avbryt"

View File

@ -135,8 +135,6 @@ nl:
question_consolidator_llm: Taalmodel voor Vragenconsolidator
question_consolidator_llm_help: Het te gebruiken taalmodel voor de vragenconsolidator. Je kunt een minder krachtig model kiezen om kosten te besparen.
system_prompt: Systeemprompt
show_indexing_options: "Uploadopties weergeven"
hide_indexing_options: "Uploadopties verbergen"
allow_chat: "Chat toestaan"
allow_chat_help: "Indien ingeschakeld, kunnen gebruikers in toegestane groepen deze persona een direct bericht sturen"
save: Opslaan
@ -156,10 +154,6 @@ nl:
priority: Prioriteit
priority_help: Prioritaire persona's worden bovenaan de personalijst weergegeven voor gebruikers. Als meerdere persona's prioriteit hebben, worden deze alfabetisch gesorteerd.
tool_options: "Toolopties"
rag_chunk_tokens: "Uploadchunktokens"
rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens"
rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
rag_conversation_chunks: "Conversatiechunks zoeken"
rag_conversation_chunks_help: "Het te gebruiken aantal chunks voor zoeken door het RAG-model. Verhoog dit om de hoeveelheid context te vergroten die de AI kan gebruiken."
what_are_personas: "Wat zijn AI-persona's?"
@ -173,9 +167,16 @@ nl:
#### Groepsspecifieke toegang tot AI-persona's
Bovendien kun je het zo instellen dat bepaalde gebruikersgroepen toegang hebben tot specifieke persona's. Dit betekent dat je verschillende AI-gedragingen kunt hebben voor verschillende secties van je forum, waardoor de diversiteit en rijkdom van de interacties in je community verder toeneemt.
rag:
options:
rag_chunk_tokens: "Uploadchunktokens"
rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens"
rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
show_indexing_options: "Uploadopties weergeven"
hide_indexing_options: "Uploadopties verbergen"
uploads:
title: "Uploads"
description: "Je AI-persona kan de inhoud van de opgenomen bestanden zoeken en ernaar verwijzen. Geüploade bestanden moeten zijn opgemaakt als platte tekst (.txt) of markdown (.md)."
button: "Bestanden toevoegen"
filter: "Uploads filteren"
indexed: "Geïndexeerd"
@ -219,9 +220,7 @@ nl:
short_title: "LLM's"
no_llms: "Nog geen LLM's"
new: "Nieuw model"
display_name: "Weer te geven naam"
name: "Modelnaam"
provider: "Service die het model host"
display_name: "Naam"
tokenizer: "Tokenizer"
max_prompt_tokens: "Aantal tokens voor de prompt"
url: "URL van de service die het model host"
@ -236,8 +235,6 @@ nl:
confirm_delete: Weet je zeker dat je dit model wilt verwijderen?
delete: Verwijderen
preconfigured_llms: "Selecteer je LLM"
preconfigured:
none: "Handmatig configureren..."
next:
title: "Volgende"
tests:
@ -259,6 +256,7 @@ nl:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Aangepast"
provider_fields:
access_key_id: "Toegangssleutel-ID AWS Bedrock"
region: "Regio AWS Bedrock"

View File

@ -129,6 +129,7 @@ pl_PL:
temperature_help: Temperatura do zastosowania w LLM, zwiększ, aby zwiększyć kreatywność (pozostaw puste, aby użyć domyślnego modelu, zazwyczaj wartość od 0,0 do 2,0)
priority: Priorytet
priority_help: Priorytetowe persony są wyświetlane użytkownikom na górze listy person. Jeśli wiele person ma priorytet, zostaną one posortowane alfabetycznie.
rag:
uploads:
title: "Pliki"
button: "Dodaj pliki"
@ -148,6 +149,7 @@ pl_PL:
test_modal:
run: "Przeprowadź test"
llms:
display_name: "Nazwa"
save: "Zapisz"
edit: "Edytuj"
back: "Poprzednia"
@ -159,6 +161,7 @@ pl_PL:
success: "Sukces!"
providers:
google: "Google"
fake: "Niestandardowe"
related_topics:
title: "Powiązane tematy"
pill: "Powiązane"

View File

@ -38,6 +38,7 @@ pt:
save: Guardar
enabled: "Ativado?"
delete: Eliminar
rag:
uploads:
title: "Uploads"
uploading: "A enviar…"
@ -53,6 +54,7 @@ pt:
next:
title: "Próximo"
llms:
display_name: "Nome"
save: "Guardar"
edit: "Editar"
back: "Retroceder"
@ -61,6 +63,7 @@ pt:
title: "Próximo"
providers:
google: "Google"
fake: "Personalizar"
ai_helper:
context_menu:
cancel: "Cancelar"

View File

@ -135,8 +135,6 @@ pt_BR:
question_consolidator_llm: Modelo de linguagem para consolidador de pergunta
question_consolidator_llm_help: O modelo de linguagem a ser usado para o consolidador de pergunta. Para economizar, você pode escolher um modelo menos robusto.
system_prompt: Prompt do sistema
show_indexing_options: "Exibir opções de envio"
hide_indexing_options: "Ocultar opções de envio"
allow_chat: "Permitir chat"
allow_chat_help: "Ative para que os(às) usuários(as) nos grupos permitidos possam enviar mensagens diretas a esta persona"
save: Salvar
@ -156,10 +154,6 @@ pt_BR:
priority: Prioridade
priority_help: Personas de prioridade são exibidas aos(às) usuários(as) no topo da lista de personas. Se várias personas tiverem prioridade, serão escolhidas em ordem alfabética.
tool_options: "Opções de ferramenta"
rag_chunk_tokens: "Enviar Tokens de Parte"
rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
rag_chunk_overlap_tokens: "Enviar Tokens de Sobreposição de Parte"
rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
rag_conversation_chunks: "Pesquisar Pedaços de Conversa"
rag_conversation_chunks_help: "O número de pedaços a serem usados para pesquisas de modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar."
what_are_personas: "O que são personas de IA?"
@ -173,9 +167,16 @@ pt_BR:
#### Acesso específico de grupo a personas de IA
Além disso, você pode configurar para que determinados grupos de usuários(as) tenham acesso a personas específicas. Ou seja, você pode ter diferentes comportamentos de IA para seções distintas do seu fórum, melhorando ainda mais a diversidade e riqueza das interações da sua comunidade.
rag:
options:
rag_chunk_tokens: "Enviar Tokens de Parte"
rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
rag_chunk_overlap_tokens: "Enviar Tokens de Sobreposição de Parte"
rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
show_indexing_options: "Exibir opções de envio"
hide_indexing_options: "Ocultar opções de envio"
uploads:
title: "Envios"
description: "Sua persona de AI poderá pesquisar e referenciar o conteúdo dos arquivos inclusos. Os arquivos enviados devem ser formatados como texto não criptografado (.txt) ou Markdown (.md)."
button: "Adicionar arquivos"
filter: "Filtrar envios"
indexed: "Indexado(a)"
@ -219,9 +220,7 @@ pt_BR:
short_title: "LLMs"
no_llms: "Nenhum LLM ainda"
new: "Novo modelo"
display_name: "Nome a ser exibido"
name: "Nome do modelo"
provider: "Servido da hospedagem do modelo"
display_name: "Nome"
tokenizer: "Tokenizador"
max_prompt_tokens: "Quantidade de tokens para o prompt"
url: "URL do serviço da hospedagem do modelo"
@ -236,8 +235,6 @@ pt_BR:
confirm_delete: Tem certeza de que deseja excluir este modelo?
delete: Excluir
preconfigured_llms: "Selecione sua LLM"
preconfigured:
none: "Configure manualmente..."
next:
title: "Próximo"
tests:
@ -259,6 +256,7 @@ pt_BR:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Personalizados(as)"
provider_fields:
access_key_id: "ID de chave de acesso do AWS Bedrock"
region: "Região do AWS Bedrock"

View File

@ -38,6 +38,7 @@ ro:
save: Salvare
enabled: "Activat?"
delete: Șterge
rag:
uploads:
title: "Urcări"
uploading: "Se încarcă..."
@ -53,6 +54,7 @@ ro:
next:
title: "Următorul"
llms:
display_name: "Nume"
save: "Salvează"
edit: "Modifică"
back: "Înapoi"
@ -63,6 +65,7 @@ ro:
success: "Succes!"
providers:
google: "Google"
fake: "Personalizat"
ai_helper:
context_menu:
cancel: "Anulare"

View File

@ -135,8 +135,6 @@ ru:
question_consolidator_llm: Языковая модель для консолидатора вопросов
question_consolidator_llm_help: Языковая модель, используемая для консолидатора вопросов; вы можете выбрать менее ресурсозатратную модель для экономии средств.
system_prompt: Системый запрос
show_indexing_options: "Показать параметры загрузки"
hide_indexing_options: "Скрыть параметры загрузки"
allow_chat: "Разрешить чат"
allow_chat_help: "Если параметр включен, пользователи в разрешенных группах смогут отправлять личные сообщения этой персоне"
save: Сохранить
@ -156,10 +154,6 @@ ru:
priority: Приоритет
priority_help: Приоритетные персоны показываются пользователям вверху списка персон. Если приоритет имеют несколько персон, они будут отсортированы в алфавитном порядке.
tool_options: "Параметры инструмента"
rag_chunk_tokens: "Токены загрузочных фрагментов"
rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)"
rag_chunk_overlap_tokens: "Токены перекрытия загрузочных фрагментов"
rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)"
rag_conversation_chunks: "Фрагменты разговора для поиска"
rag_conversation_chunks_help: "Количество фрагментов для поиска в модели RAG. Увеличьте это значение, чтобы увеличить объем контекста, который может использовать AI."
what_are_personas: "Что такое AI-персоны?"
@ -173,9 +167,16 @@ ru:
#### Доступ для отдельных групп к AI-персонам
Кроме того, вы можете настроить доступ определенных групп пользователей к конкретным персонам. Это означает, что вы можете использовать различное поведение AI для разных разделов форума, что способствует разнообразию и богатству взаимодействия с вашим сообществом.
rag:
options:
rag_chunk_tokens: "Токены загрузочных фрагментов"
rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)"
rag_chunk_overlap_tokens: "Токены перекрытия загрузочных фрагментов"
rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)"
show_indexing_options: "Показать параметры загрузки"
hide_indexing_options: "Скрыть параметры загрузки"
uploads:
title: "Загрузки"
description: "Ваша AI-персона сможет искать контент во включенных файлах и ссылаться на него. Загружаемые файлы должны быть в форматах обычного текста (.txt) или разметки markdown (.md)."
button: "Добавить файлы"
filter: "Фильтровать загрузки"
indexed: "Проиндексированные"
@ -219,9 +220,7 @@ ru:
short_title: "Большие языковые модели"
no_llms: "Еще нет LLM"
new: "Новая модель"
display_name: "Отображаемое название"
name: "Название модели"
provider: "Сервис хостинга модели"
display_name: "Название"
tokenizer: "Токенизатор"
max_prompt_tokens: "Количество токенов для запроса"
url: "URL-адрес сервиса, где размещена модель"
@ -241,8 +240,6 @@ ru:
many: "Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
other: "Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
preconfigured_llms: "Выберите LLM"
preconfigured:
none: "Настроить вручную..."
next:
title: "Далее"
tests:
@ -264,6 +261,7 @@ ru:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Указать продолжительность"
provider_fields:
access_key_id: "Идентификатор ключа доступа к AWS Bedrock"
region: "Регион AWS Bedrock"

View File

@ -40,6 +40,7 @@ sk:
save: Uložiť
enabled: "Povolené?"
delete: Odstrániť
rag:
uploads:
title: "Nahrávanie"
uploading: "Načítavam..."
@ -59,6 +60,7 @@ sk:
test_modal:
run: "Spustiť test"
llms:
display_name: "Meno"
save: "Uložiť"
edit: "Upraviť"
back: "Späť"
@ -70,6 +72,7 @@ sk:
success: "Úspech!"
providers:
google: "Google"
fake: "Vlastné"
ai_helper:
context_menu:
cancel: "Zrušiť"

View File

@ -38,6 +38,7 @@ sl:
save: Shrani
enabled: "Vključeno?"
delete: Izbriši
rag:
uploads:
title: "Prenosi"
uploading: "Nalagam..."
@ -53,6 +54,7 @@ sl:
next:
title: "Naprej"
llms:
display_name: "Ime"
save: "Shrani"
edit: "Uredi"
back: "Nazaj"
@ -63,6 +65,7 @@ sl:
success: "Uspeh!"
providers:
google: "Google"
fake: "Po meri"
ai_helper:
context_menu:
cancel: "Prekliči"

View File

@ -38,6 +38,7 @@ sq:
save: Ruaj
enabled: "Aktivizuar?"
delete: Fshij
rag:
uploads:
uploading: "Duke ngarkuar..."
tools:
@ -52,6 +53,7 @@ sq:
next:
title: "Vazhdo përpara"
llms:
display_name: "Emri"
save: "Ruaj"
edit: "Redakto"
back: "Kthehu mbrapa"
@ -60,6 +62,7 @@ sq:
title: "Vazhdo përpara"
providers:
google: "Google"
fake: "Grupet e krijuara"
ai_helper:
context_menu:
cancel: "Anulo"

View File

@ -34,6 +34,7 @@ sr:
save: Sačuvaj
enabled: "Omgućeno"
delete: Obriši
rag:
uploads:
uploading: "Uploading..."
tools:
@ -48,6 +49,7 @@ sr:
next:
title: "Dalje"
llms:
display_name: "Ime foruma"
save: "Sačuvaj"
edit: "Izmeni"
back: "Nazad"
@ -56,6 +58,7 @@ sr:
title: "Dalje"
providers:
google: "Google"
fake: "Posebna"
ai_helper:
context_menu:
cancel: "Odustani"

View File

@ -38,6 +38,7 @@ sv:
save: Spara
enabled: "Aktiverad?"
delete: Radera
rag:
uploads:
title: "Uppladdningar"
uploading: "Laddar upp..."
@ -56,6 +57,7 @@ sv:
test_modal:
run: "Kör test"
llms:
display_name: "Namn"
save: "Spara"
edit: "Redigera"
back: "Tillbaka"
@ -67,6 +69,7 @@ sv:
success: "Lyckades!"
providers:
google: "Google"
fake: "Anpassad"
ai_helper:
context_menu:
cancel: "Avbryt"

View File

@ -38,6 +38,7 @@ sw:
save: Hifadhi
enabled: "Imeruhusiwa?"
delete: Futa
rag:
uploads:
title: "Upakiaji"
uploading: "Inaongezwa"
@ -53,6 +54,7 @@ sw:
next:
title: "Ijayo"
llms:
display_name: "Jina"
save: "Hifadhi"
edit: "Hariri"
back: "Iliyopita"
@ -63,6 +65,7 @@ sw:
success: "Mafanikio!"
providers:
google: "Google"
fake: "Binafsi"
ai_helper:
context_menu:
cancel: "Ghairi"

View File

@ -36,6 +36,7 @@ te:
save: భద్రపరుచు
enabled: "ప్రారంభించబడిందా?"
delete: తొలగించు
rag:
uploads:
title: "అప్‌లోడ్‌లు"
uploading: "ఎగుమతవుతోంది..."
@ -54,6 +55,7 @@ te:
test_modal:
run: "పరీక్షను అమలు చేయండి"
llms:
display_name: "పేరు"
save: "సేవ్ చేయండి"
edit: "సవరించండి"
back: "వెనుకకు"
@ -64,6 +66,7 @@ te:
title: "పరీక్షను అమలు చేయండి"
providers:
google: "గూగుల్"
fake: "అనుకూల"
ai_helper:
context_menu:
cancel: "రద్దుచేయి"

View File

@ -38,6 +38,7 @@ th:
save: บันทึก
enabled: "เปิดใช้"
delete: ลบ
rag:
uploads:
title: "อัปโหลด"
uploading: "กำลังอัปโหลด..."
@ -53,6 +54,7 @@ th:
next:
title: "ต่อไป"
llms:
display_name: "ชื่อ"
save: "บันทึก"
edit: "แก้ไข"
back: "กลับ"

View File

@ -135,8 +135,6 @@ tr_TR:
question_consolidator_llm: Soru Konsolidatörü için Dil Modeli
question_consolidator_llm_help: Soru birleştirici için kullanılacak dil modeli, maliyetten tasarruf etmek için daha az güçlü bir model seçebilirsiniz.
system_prompt: Sistem İstemi
show_indexing_options: "Karşıya Yükleme Seçeneklerini göster"
hide_indexing_options: "Karşıya Yükleme Seçeneklerini gizle"
allow_chat: "Sohbete izin ver"
allow_chat_help: "Etkinleştirilirse izin verilen gruplardaki kullanıcılar bu kişiye DM gönderebilir"
save: Kaydet
@ -156,10 +154,6 @@ tr_TR:
priority: Öncelik
priority_help: Öncelikli kişilikler kullanıcılara kişilik listesinin en üstünde gösterilir. Birden fazla kişiliğin önceliği varsa bunlar alfabetik olarak sıralanır.
tool_options: "Araç Seçenekleri"
rag_chunk_tokens: "Parça Token'ları yükle"
rag_chunk_tokens_help: "RAG modelindeki her yığın için kullanılacak belirteç sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın. (değiştirmek tüm yüklemeleri yeniden endeksler)"
rag_chunk_overlap_tokens: "Parça Örtüşme Token'ları yükle"
rag_chunk_overlap_tokens_help: "RAG modelinde yığınlar arasında üst üste binecek token sayısı. (değiştirme tüm yüklemeleri yeniden endeksler)"
rag_conversation_chunks: "Konuşma Parçaları ara"
rag_conversation_chunks_help: "RAG modeli aramaları için kullanılacak parça sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın."
what_are_personas: "YZ Kişileri nedir?"
@ -173,9 +167,16 @@ tr_TR:
#### YZ Kişilerine Gruba Özel Erişim
Dahası, belirli kullanıcı gruplarının belirli kişiliklere erişime sahip olacak şekilde de belirleyebilirsiniz. Bu, forumunuzun farklı bölümleri için farklı YZ davranışlarına sahip olabileceğiniz anlamına gelir ve böylece topluluğunuzun etkileşimlerinin çeşitliliğini ve zenginliğini geliştirebilirsiniz.
rag:
options:
rag_chunk_tokens: "Parça Token'ları yükle"
rag_chunk_tokens_help: "RAG modelindeki her yığın için kullanılacak belirteç sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın. (değiştirmek tüm yüklemeleri yeniden endeksler)"
rag_chunk_overlap_tokens: "Parça Örtüşme Token'ları yükle"
rag_chunk_overlap_tokens_help: "RAG modelinde yığınlar arasında üst üste binecek token sayısı. (değiştirme tüm yüklemeleri yeniden endeksler)"
show_indexing_options: "Karşıya Yükleme Seçeneklerini göster"
hide_indexing_options: "Karşıya Yükleme Seçeneklerini gizle"
uploads:
title: "Yüklemeler"
description: "YZ kişiniz, dâhil edilen dosyaların içeriğini arayabilir ve referans verebilir. Yüklenen dosyalar düz metin (.txt) veya markdown (.md) olarak biçimlendirilmelidir."
button: "Dosya ekle"
filter: "Yüklemeleri filtrele"
indexed: "İndekslendi"
@ -219,9 +220,7 @@ tr_TR:
short_title: "LLM'ler"
no_llms: "Henüz LLM yok"
new: "Yeni Model"
display_name: "Gösterilecek ad"
name: "Model adı"
provider: "Modeli barındıran hizmet"
display_name: "Ad"
tokenizer: "Token'laştırıcı"
max_prompt_tokens: "İstem için token sayısı"
url: "Modeli barındıran hizmetin URL'si"
@ -236,8 +235,6 @@ tr_TR:
confirm_delete: Bu modeli silmek istediğinizden emin misiniz?
delete: Sil
preconfigured_llms: "LLM'nizi seçin"
preconfigured:
none: "Manuel olarak yapılandırın..."
next:
title: "İleri"
tests:
@ -259,6 +256,7 @@ tr_TR:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Özel"
provider_fields:
access_key_id: "AWS Bedrock Erişim anahtarı Kimliği"
region: "AWS Bedrock Bölgesi"

View File

@ -40,6 +40,7 @@ ug:
save: ساقلا
enabled: "قوزغىتىلدى؟"
delete: ئۆچۈر
rag:
uploads:
title: "يۈكلەنمە"
uploading: "يۈكلەۋاتىدۇ..."
@ -59,6 +60,7 @@ ug:
test_modal:
run: "سىناقنى ئىجرا قىل"
llms:
display_name: "ئىسمى"
save: "ساقلا"
edit: "تەھرىر"
back: "كەينى"
@ -70,6 +72,7 @@ ug:
success: "مۇۋەپپەقىيەتلىك!"
providers:
google: "Google"
fake: "ئىختىيارى"
ai_helper:
context_menu:
cancel: "ۋاز كەچ"

View File

@ -40,6 +40,7 @@ uk:
save: Зберегти
enabled: "Включено?"
delete: Видалити
rag:
uploads:
title: "Завантаження"
uploading: "Надсилання…"
@ -59,6 +60,7 @@ uk:
test_modal:
run: "Виконати Тест"
llms:
display_name: "Імʼя"
save: "Зберегти"
edit: "Редагувати"
back: "Назад"
@ -70,6 +72,7 @@ uk:
success: "Успіх!"
providers:
google: "Google"
fake: "Користувацька"
ai_helper:
context_menu:
cancel: "Скасувати"

View File

@ -38,6 +38,7 @@ ur:
save: محفوظ کریں
enabled: "فعال؟"
delete: مٹائیں
rag:
uploads:
title: "اَپ لوڈز"
uploading: "اَپ لوڈ کیا جا رہا ہے..."
@ -56,6 +57,7 @@ ur:
test_modal:
run: "ٹیسٹ چلائیں"
llms:
display_name: "نام"
save: "محفوظ کریں"
edit: "ترمیم کریں"
back: "واپس"
@ -67,6 +69,7 @@ ur:
success: "کامیابی!"
providers:
google: "گُوگَل"
fake: "اپنی مرضی کا"
ai_helper:
context_menu:
cancel: "منسوخ"

View File

@ -38,6 +38,7 @@ vi:
save: Lưu lại
enabled: "Kích hoạt"
delete: Xóa
rag:
uploads:
title: "Tải lên"
uploading: "Đang đăng "
@ -56,6 +57,7 @@ vi:
test_modal:
run: "Chạy thử nghiệm"
llms:
display_name: "Tên"
save: "Lưu lại"
edit: "Sửa"
back: "Quay lại"
@ -67,6 +69,7 @@ vi:
success: "Thành công!"
providers:
google: "G"
fake: "Tùy biến"
ai_helper:
context_menu:
cancel: "Huỷ"

View File

@ -135,8 +135,6 @@ zh_CN:
question_consolidator_llm: 问题整合器的语言模型
question_consolidator_llm_help: 用于问题整合器的语言模型,您可以选择功能较弱的模型来节省成本。
system_prompt: 系统提示
show_indexing_options: "显示上传选项"
hide_indexing_options: "隐藏上传选项"
allow_chat: "允许聊天"
allow_chat_help: "如果启用,允许的群组中的用户可以向此角色发送私信"
save: 保存
@ -156,10 +154,6 @@ zh_CN:
priority: 优先
priority_help: 优先角色会在角色列表的顶部向用户显示。如果多个角色都具有优先级,将按字母顺序排序。
tool_options: "工具选项"
rag_chunk_tokens: "上传分块词元"
rag_chunk_tokens_help: "RAG 模型中为每个分块使用的词元数。增大词元数会增加 AI 可以使用的上下文数量。(更改词元数将为所有上传内容重新编制索引)"
rag_chunk_overlap_tokens: "上传分块重叠词元"
rag_chunk_overlap_tokens_help: "RAG 模型中分块之间重叠的词元数。(更改词元数将为所有上传内容重新编制索引)"
rag_conversation_chunks: "搜索对话分块"
rag_conversation_chunks_help: "为 RAG 模型搜索使用的分块数。增加分块数会增加 AI 可以使用的上下文数量。"
what_are_personas: "什么是 AI 角色?"
@ -173,9 +167,16 @@ zh_CN:
#### 对 AI 角色的群组特定的访问
此外,您还可以对其进行设置,以便某些用户群组可以访问特定角色。这意味着您可以为论坛的不同版块设置不同的 AI 行为,从而进一步增强社区互动的多元化和丰富性。
rag:
options:
rag_chunk_tokens: "上传分块词元"
rag_chunk_tokens_help: "RAG 模型中为每个分块使用的词元数。增大词元数会增加 AI 可以使用的上下文数量。(更改词元数将为所有上传内容重新编制索引)"
rag_chunk_overlap_tokens: "上传分块重叠词元"
rag_chunk_overlap_tokens_help: "RAG 模型中分块之间重叠的词元数。(更改词元数将为所有上传内容重新编制索引)"
show_indexing_options: "显示上传选项"
hide_indexing_options: "隐藏上传选项"
uploads:
title: "上传"
description: "您的 AI 角色将能够搜索和引用所包含文件的内容。上传的文件应格式化为纯文本 (.txt) 或 markdown (.md)。"
button: "添加文件"
filter: "筛选上传"
indexed: "已编制索引"
@ -219,9 +220,7 @@ zh_CN:
short_title: "LLM"
no_llms: "没有 LLM"
new: "新建模型"
display_name: "用于显示的名称"
name: "模型名称"
provider: "托管模型的服务"
display_name: "名称"
tokenizer: "词元生成器"
max_prompt_tokens: "提示的词元数"
url: "托管模型的服务的 URL"
@ -236,8 +235,6 @@ zh_CN:
confirm_delete: 确定要删除此模型吗?
delete: 删除
preconfigured_llms: "选择您的 LLM"
preconfigured:
none: "手动配置..."
next:
title: "下一步"
tests:
@ -259,6 +256,7 @@ zh_CN:
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "自定义"
provider_fields:
access_key_id: "AWS Bedrock 访问密钥 ID"
region: "AWS Bedrock 区域"

View File

@ -36,6 +36,7 @@ zh_TW:
save: 保存
enabled: "啟用?"
delete: 刪除
rag:
uploads:
title: "上傳檔案"
uploading: "上傳中..."
@ -54,6 +55,7 @@ zh_TW:
test_modal:
run: "執行測試"
llms:
display_name: "名字"
save: "保存"
edit: "編輯"
back: "上一步"
@ -65,6 +67,7 @@ zh_TW:
success: "成功!"
providers:
google: "Google"
fake: "客製"
ai_helper:
context_menu:
cancel: "取消"