diff --git a/config/locales/client.ar.yml b/config/locales/client.ar.yml index 7924cc23..b1693431 100644 --- a/config/locales/client.ar.yml +++ b/config/locales/client.ar.yml @@ -135,8 +135,6 @@ ar: question_consolidator_llm: نموذج اللغة لتوحيد الأسئلة question_consolidator_llm_help: نموذج اللغة الذي سيتم استخدامه لتوحيد الأسئلة، يمكنك اختيار نموذج أقل قوة للتوفير في التكاليف. system_prompt: رسالة مطالبة النظام - show_indexing_options: "إظهار خيارات التحميل" - hide_indexing_options: "إخفاء خيارات التحميل" allow_chat: "السماح بالدردشة" allow_chat_help: "إذا تم التفعيل، يمكن للمستخدمين في المجموعات المسموح بها إرسال رسالة مباشرة إلى هذه الشخصية" save: حفظ @@ -156,10 +154,6 @@ ar: priority: الأولوية priority_help: يتم عرض الشخصيات ذات الأولوية للمستخدمين في أعلى قائمة الشخصيات. إذا كانت الأولوية لعدة أشخاص، فسيتم فرزهم أبجديًا. tool_options: "خيارات الأداة" - rag_chunk_tokens: "تحميل أجزاء الرموز" - rag_chunk_tokens_help: "عدد الرموز المميزة التي سيتم استخدامها لكل جزء في نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)" - rag_chunk_overlap_tokens: "تحميل أجزاء الرموز المتداخلة" - rag_chunk_overlap_tokens_help: "عدد الرموز المميزة التي ستتداخل بين الأجزاء في نموذج RAG. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)" rag_conversation_chunks: "البحث في أجزاء المحادثة" rag_conversation_chunks_help: "عدد الأجزاء التي سيتم استخدامها لإي عمليات البحث ضمن نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة." what_are_personas: "ما هي شخصيات الذكاء الاصطناعي؟" @@ -173,9 +167,16 @@ ar: #### وصول خاص بالمجموعة إلى شخصيات الذكاء الاصطناعي علاوةً على ذلك، يمكنك إعداده بحيث تتمكن مجموعات معيَّنة من المستخدمين من الوصول إلى أشخاص محدَّدين. وهذا يعني أنه يمكنك الحصول على سلوكيات مختلفة للذكاء الاصطناعي لأقسام مختلفة في المنتدى الخاص بك، ما يزيد من تعزيز تنُّوع مجتمعك وثراء تفاعلاته. + rag: + options: + rag_chunk_tokens: "تحميل أجزاء الرموز" + rag_chunk_tokens_help: "عدد الرموز المميزة التي سيتم استخدامها لكل جزء في نموذج RAG. يزداد مقدار السياق الذي يمكن للذكاء الاصطناعي استخدامه بزيادة القيمة. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)" + rag_chunk_overlap_tokens: "تحميل أجزاء الرموز المتداخلة" + rag_chunk_overlap_tokens_help: "عدد الرموز المميزة التي ستتداخل بين الأجزاء في نموذج RAG. (سيؤدي التغيير إلى إعادة فهرسة جميع التحميلات)" + show_indexing_options: "إظهار خيارات التحميل" + hide_indexing_options: "إخفاء خيارات التحميل" uploads: title: "التحميلات" - description: "ستكون شخصية الذكاء الاصطناعي الخاصة بك قادرة على البحث والإشارة إلى محتوى الملفات المضمَّنة. يجب تنسيق الملفات التي تم تحميلها بتنسيق plaintext (.txt) أو markdown (.md)." button: "إضافة الملفات" filter: "تصفية التحميلات" indexed: "تمت الفهرسة" @@ -219,9 +220,7 @@ ar: short_title: "نماذج اللغة الكبيرة" no_llms: "لا توجد نماذج لغة كبيرة بعد" new: "نموذج جديد" - display_name: "الاسم المراد عرضه" - name: "اسم النموذج" - provider: "خدمة استضافة النموذج" + display_name: "الاسم" tokenizer: "أداة الترميز" max_prompt_tokens: "عدد الرموز المميزة لرسالة المطالبة" url: "عنوان URL لخدمة استضافة النموذج" @@ -236,8 +235,6 @@ ar: confirm_delete: هل تريد بالتأكيد حذف هذا النموذج؟ delete: حذف preconfigured_llms: "حدِّد نموذج اللغة الكبير الخاص بك" - preconfigured: - none: "قم بالتكوين يدويًا..." next: title: "التالي" tests: @@ -259,6 +256,7 @@ ar: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "مخصَّصة" provider_fields: access_key_id: "معرِّف مفتاح الوصول إلى AWS Bedrock" region: "منطقة AWS Bedrock" diff --git a/config/locales/client.be.yml b/config/locales/client.be.yml index 653cb3ae..6a2508cf 100644 --- a/config/locales/client.be.yml +++ b/config/locales/client.be.yml @@ -35,6 +35,7 @@ be: user: карыстальнік save: Захаваць delete: выдаляць + rag: uploads: title: "Загрузкі" uploading: "Запампоўванне ..." @@ -50,6 +51,7 @@ be: next: title: "Далей" llms: + display_name: "імя" save: "Захаваць" edit: "рэдагаваць" back: "Назад" diff --git a/config/locales/client.bg.yml b/config/locales/client.bg.yml index 253ee4bd..36b3c870 100644 --- a/config/locales/client.bg.yml +++ b/config/locales/client.bg.yml @@ -38,6 +38,7 @@ bg: save: Запази enabled: "Да е включен?" delete: Изтрий + rag: uploads: uploading: "Качва се..." tools: @@ -52,6 +53,7 @@ bg: next: title: "Напред" llms: + display_name: "Име" save: "Запази " edit: "Редактирай" back: "Назад" @@ -60,6 +62,7 @@ bg: title: "Напред" providers: google: "Google" + fake: "По избор" ai_helper: context_menu: cancel: "Прекрати" diff --git a/config/locales/client.bs_BA.yml b/config/locales/client.bs_BA.yml index 3a71fba1..aa50be40 100644 --- a/config/locales/client.bs_BA.yml +++ b/config/locales/client.bs_BA.yml @@ -38,6 +38,7 @@ bs_BA: save: Save enabled: "Omogućen?" delete: Delete + rag: uploads: title: "Uploads" uploading: "Učitavanje..." @@ -56,6 +57,7 @@ bs_BA: test_modal: run: "Pokreni test" llms: + display_name: "Ime" save: "Save" edit: "Edit" back: "Prethodno" @@ -67,6 +69,7 @@ bs_BA: success: "Uspjeh!" providers: google: "Google" + fake: "Custom" ai_helper: context_menu: cancel: "Odustani" diff --git a/config/locales/client.ca.yml b/config/locales/client.ca.yml index 85874efc..d4c12aed 100644 --- a/config/locales/client.ca.yml +++ b/config/locales/client.ca.yml @@ -38,6 +38,7 @@ ca: save: Desa enabled: "Activat?" delete: Suprimeix + rag: uploads: title: "Càrregues" uploading: "Carregant..." @@ -56,6 +57,7 @@ ca: test_modal: run: "Executa el test" llms: + display_name: "Nom" save: "Desa" edit: "Edita" back: "Enrere" @@ -67,6 +69,7 @@ ca: success: "Èxit!" providers: google: "Google" + fake: "Personalitzat" ai_helper: context_menu: cancel: "Cancel·la" diff --git a/config/locales/client.cs.yml b/config/locales/client.cs.yml index 0eb17e42..3c313feb 100644 --- a/config/locales/client.cs.yml +++ b/config/locales/client.cs.yml @@ -38,6 +38,7 @@ cs: save: Uložit enabled: "Zapnuto?" delete: Smazat + rag: uploads: title: "Nahrané soubory" uploading: "Nahrává se..." @@ -56,6 +57,7 @@ cs: test_modal: run: "Spustit test" llms: + display_name: "Jméno" save: "Uložit" edit: "Upravit" back: "Zpět" @@ -67,6 +69,7 @@ cs: success: "Úspěch!" providers: google: "Google" + fake: "Přizpůsobené" ai_helper: context_menu: cancel: "Zrušit" diff --git a/config/locales/client.da.yml b/config/locales/client.da.yml index 8e046f5f..bb620168 100644 --- a/config/locales/client.da.yml +++ b/config/locales/client.da.yml @@ -38,6 +38,7 @@ da: save: Gem enabled: "Aktiveret?" delete: Slet + rag: uploads: title: "Overførsler" uploading: "Overfører…" @@ -56,6 +57,7 @@ da: test_modal: run: "Kør test" llms: + display_name: "Navn" save: "Gem" edit: "Rediger" back: "Tilbage" @@ -67,6 +69,7 @@ da: success: "Succes!" providers: google: "Google" + fake: "Tilpasset" ai_helper: context_menu: cancel: "Annuller" diff --git a/config/locales/client.de.yml b/config/locales/client.de.yml index 4735ff07..6985b03b 100644 --- a/config/locales/client.de.yml +++ b/config/locales/client.de.yml @@ -140,8 +140,6 @@ de: question_consolidator_llm: Sprachmodell für Fragenkonsolidierer question_consolidator_llm_help: Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen. system_prompt: System-Eingabeaufforderung - show_indexing_options: "Upload-Optionen anzeigen" - hide_indexing_options: "Upload-Optionen ausblenden" allow_chat: "Chat zulassen" allow_chat_help: "Wenn diese Option aktiviert ist, können Nutzer in erlaubten Gruppen dieser Persona eine DN senden" save: Speichern @@ -161,10 +159,6 @@ de: priority: Priorität priority_help: Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert. tool_options: "Tool-Optionen" - rag_chunk_tokens: "Chunk-Token hochladen" - rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" - rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen" - rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" rag_conversation_chunks: "Suchunterhaltungs-Chunks" rag_conversation_chunks_help: "Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann." what_are_personas: "Was sind KI-Personas?" @@ -178,9 +172,17 @@ de: #### Gruppenspezifischer Zugriff auf KI-Personas Außerdem kannst du die Funktion so einrichten, dass bestimmte Nutzergruppen Zugriff auf gewisse Personas haben. Das bedeutet, dass du für verschiedene Bereiche deines Forums unterschiedliche KI-Verhaltensweisen verwenden kannst, was die Vielfalt und Fülle der Interaktionen deiner Community weiter verbessert. + rag: + options: + rag_chunk_tokens: "Chunk-Token hochladen" + rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" + rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen" + rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)" + show_indexing_options: "Upload-Optionen anzeigen" + hide_indexing_options: "Upload-Optionen ausblenden" uploads: title: "Uploads" - description: "Deine KI-Persona wird in der Lage sein, den Inhalt der beigefügten Dateien zu durchsuchen und zu referenzieren. Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein." + description: "Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein." button: "Dateien hinzufügen" filter: "Uploads filtern" indexed: "Indiziert" @@ -224,9 +226,9 @@ de: short_title: "LLM" no_llms: "Noch keine LLM" new: "Neues Modell" - display_name: "Anzeigename" - name: "Modellname" - provider: "Dienst, der das Modell hostet" + display_name: "Name" + name: "Modell-ID" + provider: "Anbieter" tokenizer: "Tokenizer" max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung" url: "URL des Dienstes, der das Modell hostet" @@ -244,9 +246,25 @@ de: in_use_warning: one: "Dieses Modell wird derzeit von der Einstellung %{settings} verwendet. Wenn die Funktion falsch konfiguriert ist, funktioniert sie nicht wie erwartet." other: "Dieses Modell wird derzeit von den folgenden Einstellungen verwendet: %{settings}. Bei einer falschen Konfiguration funktionieren die Funktionen nicht wie erwartet. " + model_description: + none: "Allgemeine Einstellungen, die für die meisten Sprachmodelle funktionieren" + anthropic-claude-3-5-sonnet: "Das intelligenteste Modell der Anthropologie" + anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben" + anthropic-claude-3-sonnet: "Ausgewogenheit zwischen Geschwindigkeit und Intelligenz" + anthropic-claude-3-haiku: "Schnell und kosteneffizient" + google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann" + google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation" + open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation" + open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben" + open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben" + configured: + title: "Konfigurierte LLMs" preconfigured_llms: "Wähle dein LLM" preconfigured: - none: "Manuell konfigurieren …" + title_no_llms: "Wähle eine Vorlage aus, um loszulegen" + title: "Unkonfigurierte LLM-Vorlagen" + fake: "Manuelle Konfiguration" + button: "Einrichten" next: title: "Nächstes" tests: @@ -270,6 +288,7 @@ de: ollama: "Ollama" CDCK: "CDCK" samba_nova: "SambaNova" + fake: "Benutzerdefiniert" provider_fields: access_key_id: "AWS-Bedrock-Zugangsschlüssel-ID" region: "AWS-Bedrock-Region" diff --git a/config/locales/client.el.yml b/config/locales/client.el.yml index 7b3e4fb9..3e6a568d 100644 --- a/config/locales/client.el.yml +++ b/config/locales/client.el.yml @@ -38,6 +38,7 @@ el: save: Αποθήκευση enabled: "Ενεργοποιημένο;" delete: Σβήσιμο + rag: uploads: title: "Μεταφορτώσεις" uploading: "Επιφόρτωση..." @@ -56,6 +57,7 @@ el: test_modal: run: "Εκτέλεση δοκιμής" llms: + display_name: "Όνομα" save: "Αποθήκευση" edit: "Επεξεργασία" back: "Πίσω" @@ -67,6 +69,7 @@ el: success: "Επιτυχία!" providers: google: "Google" + fake: "Προσαρμοσμένο" ai_helper: context_menu: cancel: "Ακύρωση" diff --git a/config/locales/client.es.yml b/config/locales/client.es.yml index a99e2828..2ed2b73b 100644 --- a/config/locales/client.es.yml +++ b/config/locales/client.es.yml @@ -135,8 +135,6 @@ es: question_consolidator_llm: Modelo lingüístico para el consolidador de preguntas question_consolidator_llm_help: El modelo lingüístico a utilizar para el consolidador de preguntas, puedes elegir un modelo menos potente para ahorrar costes. system_prompt: Aviso del sistema - show_indexing_options: "Mostrar opciones de carga" - hide_indexing_options: "Ocultar opciones de carga" allow_chat: "Permitir chat" allow_chat_help: "Si está activada, los usuarios de los grupos permitidos pueden DM a esta persona" save: Guardar @@ -156,10 +154,6 @@ es: priority: Prioridad priority_help: Las personas prioritarias se muestran a los usuarios en la parte superior de la lista de personas. Si varias personas tienen prioridad, se ordenarán alfabéticamente. tool_options: "Opciones de herramientas" - rag_chunk_tokens: "Cargar tokens de lotes" - rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)" - rag_chunk_overlap_tokens: "Cargar tokens de solapamiento de fragmentos" - rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)" rag_conversation_chunks: "Buscar fragmentos de conversación" rag_conversation_chunks_help: "El número de fragmentos a utilizar para las búsquedas del modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA." what_are_personas: "¿Qué son las Personas de IA?" @@ -173,9 +167,16 @@ es: #### Acceso específico de grupo a Personas de IA Además, puedes configurarlo para que determinados grupos de usuarios tengan acceso a personas concretas. Esto significa que puedes tener diferentes comportamientos de IA para diferentes secciones de tu foro, mejorando aún más la diversidad y riqueza de las interacciones de tu comunidad. + rag: + options: + rag_chunk_tokens: "Cargar tokens de lotes" + rag_chunk_tokens_help: "El número de tokens a utilizar para cada fragmento en el modelo RAG. Aumentar para incrementar la cantidad de contexto que puede utilizar la IA. (Al cambiar se reindexarán todas las cargas)" + rag_chunk_overlap_tokens: "Cargar tokens de solapamiento de fragmentos" + rag_chunk_overlap_tokens_help: "El número de tokens a solapar entre fragmentos en el modelo RAG. (al cambiar se reindexarán todas las cargas)" + show_indexing_options: "Mostrar opciones de carga" + hide_indexing_options: "Ocultar opciones de carga" uploads: title: "Subidos" - description: "Tu persona de IA podrá buscar y consultar el contenido de los archivos incluidos. Los archivos subidos deben tener formato de texto plano (.txt) o marcado (.md)." button: "Añadir archivos" filter: "Filtrar cargas" indexed: "Indexado" @@ -219,9 +220,7 @@ es: short_title: "LLM" no_llms: "Aún no hay LLM" new: "Nuevo modelo" - display_name: "Nombre para mostrar" - name: "Nombre del modelo" - provider: "Servicio de alojamiento del modelo" + display_name: "Nombre" tokenizer: "Tokenizador" max_prompt_tokens: "Número de tokens para la solicitud" url: "URL del servicio que aloja el modelo" @@ -236,8 +235,6 @@ es: confirm_delete: '¿Seguro que quieres eliminar este modelo?' delete: Eliminar preconfigured_llms: "Selecciona tu LLM" - preconfigured: - none: "Configurar manualmente..." next: title: "Siguiente" tests: @@ -259,6 +256,7 @@ es: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Personalizado" provider_fields: access_key_id: "ID de clave de acceso a AWS Bedrock" region: "Región de AWS Bedrock" diff --git a/config/locales/client.et.yml b/config/locales/client.et.yml index 4c247133..27603030 100644 --- a/config/locales/client.et.yml +++ b/config/locales/client.et.yml @@ -38,6 +38,7 @@ et: save: Salvesta enabled: "Sisse lülitatud?" delete: Kustuta + rag: uploads: title: "Üleslaadimised" uploading: "Laen üles..." @@ -53,6 +54,7 @@ et: next: title: "Järgmine" llms: + display_name: "Nimi" save: "Salvesta" edit: "Muuda" back: "Tagasi" @@ -63,6 +65,7 @@ et: success: "Korras!" providers: google: "Google" + fake: "Individuaalne" ai_helper: context_menu: cancel: "Tühista" diff --git a/config/locales/client.fa_IR.yml b/config/locales/client.fa_IR.yml index d1c9af25..8062cf72 100644 --- a/config/locales/client.fa_IR.yml +++ b/config/locales/client.fa_IR.yml @@ -60,6 +60,7 @@ fa_IR: save: ذخیره enabled: "فعال شده؟" delete: حذف + rag: uploads: title: "بارگذاری‌ها" uploading: "در حال بار گذاری..." @@ -79,9 +80,7 @@ fa_IR: run: "اجرای آزمایش" llms: new: "مدل جدید" - display_name: "نام برای نمایش" - name: "نام مدل" - provider: "سرویس میزبانی مدل" + display_name: "نام" save: "ذخیره" edit: "ویرایش" back: "بازگشت" @@ -95,6 +94,7 @@ fa_IR: failure: "در حال ارتباط با مدل این خطا رخ داد: %{error}" providers: google: "گوگل" + fake: "سفارشی" related_topics: title: "موضوعات مرتبط" ai_helper: diff --git a/config/locales/client.fi.yml b/config/locales/client.fi.yml index c2e9c3b1..3d4dc2e8 100644 --- a/config/locales/client.fi.yml +++ b/config/locales/client.fi.yml @@ -135,8 +135,6 @@ fi: question_consolidator_llm: Kielimalli kysymysten yhdistäjälle question_consolidator_llm_help: Kysymysten yhdistäjälle käytettävä kielimalli, voit valita vähemmän tehokkaan mallin kustannusten säästämiseksi. system_prompt: Järjestelmäkehote - show_indexing_options: "Näytä latausasetukset" - hide_indexing_options: "Piilota latausasetukset" allow_chat: "Salli chat" allow_chat_help: "Jos tämä on käytössä, sallittujen ryhmien käyttäjät voivat lähettää yksityisviestin tälle persoonalle" save: Tallenna @@ -156,10 +154,6 @@ fi: priority: Prioriteetti priority_help: Prioriteettipersoonat näytetään käyttäjille ensimmäisinä persoonaluettelossa. Jos useilla persoonilla on prioriteetti, ne järjestetään aakkosjärjestyksessä. tool_options: "Työkaluasetukset" - rag_chunk_tokens: "Latauslohkotokenit" - rag_chunk_tokens_help: "Kullekin lohkolle käytettävien tokenien määrä RAG-mallissa. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen)." - rag_chunk_overlap_tokens: "Latauslohkon päällekkäiset tokenit" - rag_chunk_overlap_tokens_help: "Päällekkäisten tokenien määrä lohkojen välillä RAG-mallissa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen). " rag_conversation_chunks: "Hakukeskustelulohkot" rag_conversation_chunks_help: "RAG-mallin hauissa käytettävien lohkojen määrä. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa." what_are_personas: "Mitä ovat tekoälypersoonat?" @@ -173,9 +167,16 @@ fi: #### Ryhmäkohtainen tekoälypersoonien käyttöoikeus Lisäksi voit määrittää siten, että tietyillä käyttäjäryhmillä on pääsy tiettyihin persooniin. Tämä tarkoittaa, että sinulla voi olla erilaisia tekoälykäyttäytymismalleja foorumisi eri osioissa, mikä lisää entisestään yhteisösi vuorovaikutuksen monimuotoisuutta ja monipuolisuutta. + rag: + options: + rag_chunk_tokens: "Latauslohkotokenit" + rag_chunk_tokens_help: "Kullekin lohkolle käytettävien tokenien määrä RAG-mallissa. Lisää kontekstin määrää, jota tekoäly voi käyttää, kasvattamalla arvoa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen)." + rag_chunk_overlap_tokens: "Latauslohkon päällekkäiset tokenit" + rag_chunk_overlap_tokens_help: "Päällekkäisten tokenien määrä lohkojen välillä RAG-mallissa (muuttaminen indeksoi kaikki lataukset palvelimeen uudelleen). " + show_indexing_options: "Näytä latausasetukset" + hide_indexing_options: "Piilota latausasetukset" uploads: title: "Lataukset" - description: "Tekoälypersoonasi voi hakea ja viitata sisällytettävien tiedostojen sisältöön. Verkkoon ladatut tiedostot tulisi muotoilla tavalliseksi tekstiksi (.txt) tai markdown-muotoon (.md)." button: "Lisää tiedostoja" filter: "Suodata latauksia" indexed: "Indeksoitu" @@ -219,9 +220,7 @@ fi: short_title: "LLM:t" no_llms: "LLM:iä ei ole vielä" new: "Uusi malli" - display_name: "Näytettävä nimi" - name: "Mallin nimi" - provider: "Mallia isännöivä palvelu" + display_name: "Nimi" tokenizer: "Tokenisoija" max_prompt_tokens: "Kehotteen tokenien määrä" url: "Mallia isännöivän palvelun URL-osoite" @@ -236,8 +235,6 @@ fi: confirm_delete: Oletko varma, että haluat poistaa tämän mallin? delete: Poista preconfigured_llms: "Valitse LLM" - preconfigured: - none: "Määritä manuaalisesti..." next: title: "Seuraava" tests: @@ -259,6 +256,7 @@ fi: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Mukautettu" provider_fields: access_key_id: "AWS Bedrockin käyttöavaintunnus" region: "AWS Bedrockin alue" diff --git a/config/locales/client.fr.yml b/config/locales/client.fr.yml index 0bc79591..4a5e2f32 100644 --- a/config/locales/client.fr.yml +++ b/config/locales/client.fr.yml @@ -135,8 +135,6 @@ fr: question_consolidator_llm: Modèle linguistique pour le consolidateur de questions question_consolidator_llm_help: Le modèle linguistique à utiliser pour le consolidateur de questions, vous pouvez choisir un modèle moins puissant pour réduire les coûts. system_prompt: Invite du système - show_indexing_options: "Afficher les options de téléversement" - hide_indexing_options: "Masquer les options de téléversement" allow_chat: "Autoriser la messagerie instantanée" allow_chat_help: "Si cette option est activée, les utilisateurs des groupes autorisés peuvent envoyer un DM à ce personnage" save: Enregistrer @@ -156,10 +154,6 @@ fr: priority: Priorité priority_help: Les personnages prioritaires sont affichés aux utilisateurs en haut de la liste des personnages. Si plusieurs personnages sont prioritaires, ils seront triés par ordre alphabétique. tool_options: "Options de l'outil" - rag_chunk_tokens: "Télécharger des jetons de fragments" - rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)" - rag_chunk_overlap_tokens: "Téléverser des jetons de chevauchement de morceaux" - rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)" rag_conversation_chunks: "Rechercher des morceaux de conversation" rag_conversation_chunks_help: "Le nombre de segments à utiliser pour les recherches de modèles RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser." what_are_personas: "Que sont les personnages IA ?" @@ -173,9 +167,16 @@ fr: #### Accès spécifique à un groupe aux personnages IA De plus, vous pouvez les configurer pour que certains groupes d'utilisateurs aient accès à des personnages spécifiques. Cela signifie que vous pouvez avoir différents comportements d'IA pour différentes sections de votre forum, et améliorer ainsi encore la diversité et la richesse des interactions de votre communauté. + rag: + options: + rag_chunk_tokens: "Télécharger des jetons de fragments" + rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)" + rag_chunk_overlap_tokens: "Téléverser des jetons de chevauchement de morceaux" + rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)" + show_indexing_options: "Afficher les options de téléversement" + hide_indexing_options: "Masquer les options de téléversement" uploads: title: "Fichiers envoyés" - description: "Votre personnage IA pourra rechercher et référencer le contenu des fichiers inclus. Les fichiers téléversés doivent être formatés en texte brut (.txt) ou en markdown (.md)." button: "Ajouter des fichiers" filter: "Filtrer les téléversements" indexed: "Indexé" @@ -219,9 +220,7 @@ fr: short_title: "LLM" no_llms: "Pas encore de LLM" new: "Nouveau modèle" - display_name: "Nom à afficher" - name: "Nom du modèle" - provider: "Service hébergeant le modèle" + display_name: "Nom" tokenizer: "Tokéniseur" max_prompt_tokens: "Nombre de jetons pour l'invite" url: "URL du service hébergeant le modèle" @@ -236,8 +235,6 @@ fr: confirm_delete: Voulez-vous vraiment supprimer ce modèle ? delete: Supprimer preconfigured_llms: "Sélectionnez votre LLM" - preconfigured: - none: "Configurer manuellement..." next: title: "Suivant" tests: @@ -259,6 +256,7 @@ fr: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Personnalisé" provider_fields: access_key_id: "ID de clé d'accès AWS Bedrock" region: "Région AWS Bedrock" diff --git a/config/locales/client.gl.yml b/config/locales/client.gl.yml index 2b42d33b..c3d2d268 100644 --- a/config/locales/client.gl.yml +++ b/config/locales/client.gl.yml @@ -38,6 +38,7 @@ gl: save: Gardar enabled: "Activado?" delete: Eliminar + rag: uploads: title: "Cargas" uploading: "Cargando..." @@ -56,6 +57,7 @@ gl: test_modal: run: "Executar proba" llms: + display_name: "Nome" save: "Gardar" edit: "Editar" back: "Volver" @@ -67,6 +69,7 @@ gl: success: "Feito!" providers: google: "Google" + fake: "Personalizado" ai_helper: context_menu: cancel: "Cancelar" diff --git a/config/locales/client.he.yml b/config/locales/client.he.yml index f9776b6b..20642f38 100644 --- a/config/locales/client.he.yml +++ b/config/locales/client.he.yml @@ -140,8 +140,6 @@ he: question_consolidator_llm: מודל שפה למגבש השאלות question_consolidator_llm_help: מודל השפה לשימוש עבור מגבש השאלות, אפשר לבחור במודל פחות חזק כדי לחסוך בעלויות. system_prompt: בקשת מערכת - show_indexing_options: "הצגת אפשרויות העלאה" - hide_indexing_options: "הסתרת אפשרויות העלאה" allow_chat: "לאפשר צ׳אט" allow_chat_help: "אם האפשרות פעילה, משתמשים בקבוצות מורשות יכולים לשלוח לדמות הזאת הודעות פרטיות" save: שמירה @@ -161,10 +159,6 @@ he: priority: עדיפות priority_help: דמויות בעדיפות גבוהה מוצגות למשתמשים בראש רשימת הדמויות. אם מספר דמויות הן בעדיפות הן תסודרנה לפי האלפבית. tool_options: "אפשרויות כלי" - rag_chunk_tokens: "העלאת אסימוני חלקים" - rag_chunk_tokens_help: "מספר האסימונים לשימוש לכל נתח במודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית. (שינוי יסדר את כל ההעלאות במפתח מחדש)" - rag_chunk_overlap_tokens: "העלאת אסימוני חפיפת חלקים" - rag_chunk_overlap_tokens_help: "מספר האסימון לחפיפה בין נתחים במודל ה־RAG. (שינוי יסדר את כל ההעלאות במפתח מחדש)" rag_conversation_chunks: "חיפוש בחלקי הדיון" rag_conversation_chunks_help: "מספר הנתחים לשימוש לחיפושים עם מודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית." what_are_personas: "מה הן דמויות בינה מלאכותית?" @@ -178,9 +172,16 @@ he: #### גישה קבוצתית ייעודית לדמויות בינה מלאכותית יתרה מכך, אפשר להגדיר אותה כך שרק לקבוצות מסוימות תהיינה גישה לדמויות מסוימות. משמעות הדבר היא שאפשר לנהל התנהגויות שונות לבינה המלאכותית לאזורים שונים בפורום שלך, ובכך להרחיב את הגיוון ואת העושר של ההתנהלות בקהילה שלך. + rag: + options: + rag_chunk_tokens: "העלאת אסימוני חלקים" + rag_chunk_tokens_help: "מספר האסימונים לשימוש לכל נתח במודל ה־RAG. הגדלה תגדיל את כמות ההקשר בו יכולה להשתמש הבינה המלאכותית. (שינוי יסדר את כל ההעלאות במפתח מחדש)" + rag_chunk_overlap_tokens: "העלאת אסימוני חפיפת חלקים" + rag_chunk_overlap_tokens_help: "מספר האסימון לחפיפה בין נתחים במודל ה־RAG. (שינוי יסדר את כל ההעלאות במפתח מחדש)" + show_indexing_options: "הצגת אפשרויות העלאה" + hide_indexing_options: "הסתרת אפשרויות העלאה" uploads: title: "העלאות" - description: "דמות הבינה המלאכותית שלך תוכל לחפש ולהפנות לתוכן של קבצים כלולים. קבצים שהועלו אמורים להיות בתסדירי טקסט פשוט (‎.txt) או markdown‏ (‎.md)." button: "הוספת קבצים" filter: "סינון העלאות" indexed: "סודר במפתח" @@ -224,9 +225,9 @@ he: short_title: "LLMים" no_llms: "אין LLMים עדיין" new: "מודל חדש" - display_name: "שם להצגה" - name: "שם המודל" - provider: "השירות שמארח את המודל" + display_name: "שם" + name: "מזהה מודל" + provider: "ספק" tokenizer: "מפרק לאסימונים" max_prompt_tokens: "מספר האסימונים לבקשה" url: "כתובת השירות שמארח את המודל" @@ -246,9 +247,13 @@ he: two: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. " many: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. " other: "ההגדרות הבאות משתמשות במודל הזה: %{settings}. אם ההגדרות שגויות היכולת לא תעבוד כמצופה. " + model_description: + none: "הגדרות כלליות שעובדות עבור רוב המודלים של השפות" + anthropic-claude-3-5-sonnet: "המודל החכם ביותר של Anthropic" + anthropic-claude-3-opus: "מצטיין בכתיבה ובמשימות מורכבות" + anthropic-claude-3-sonnet: "איזון בין מהירות לחוכמה" + anthropic-claude-3-haiku: "מהיר וחסכוני" preconfigured_llms: "בחירת ה־LLM שלך" - preconfigured: - none: "הגדרה ידנית…" next: title: "הבא" tests: @@ -272,6 +277,7 @@ he: ollama: "Ollama" CDCK: "CDCK" samba_nova: "SambaNova" + fake: "מותאם" provider_fields: access_key_id: "מזהה מפתח גישה ל־AWS Bedrock" region: "אזור של AWS Bedrock" diff --git a/config/locales/client.hr.yml b/config/locales/client.hr.yml index 0d0318cd..bb766fc9 100644 --- a/config/locales/client.hr.yml +++ b/config/locales/client.hr.yml @@ -38,6 +38,7 @@ hr: save: Spremi enabled: "Omogućeno?" delete: Pobriši + rag: uploads: title: "Prijenosi" uploading: "Učitavanje..." @@ -56,6 +57,7 @@ hr: test_modal: run: "Pokreni test" llms: + display_name: "Ime" save: "Spremi" edit: "Uredi" back: "Natrag" @@ -67,6 +69,7 @@ hr: success: "Uspjeh!" providers: google: "Google" + fake: "Posebna" ai_helper: context_menu: cancel: "Odustani" diff --git a/config/locales/client.hu.yml b/config/locales/client.hu.yml index 361ebdc2..74df5c69 100644 --- a/config/locales/client.hu.yml +++ b/config/locales/client.hu.yml @@ -38,9 +38,10 @@ hu: save: Mentés enabled: "Engedélyezed?" delete: Törlés + rag: uploads: title: "Feltöltések" - uploading: "Feltültés..." + uploading: "Feltöltés…" tools: back: "Vissza" name: "Név" @@ -56,6 +57,7 @@ hu: test_modal: run: "Teszt futtatása" llms: + display_name: "Név" save: "Mentés" edit: "Szerkesztés" back: "Vissza" @@ -67,6 +69,7 @@ hu: success: "Siker!" providers: google: "Google" + fake: "Egyéni" related_topics: title: "Kapcsolódó témák" pill: "Kapcsolódó" diff --git a/config/locales/client.hy.yml b/config/locales/client.hy.yml index 21aaf2f8..56b2a083 100644 --- a/config/locales/client.hy.yml +++ b/config/locales/client.hy.yml @@ -38,6 +38,7 @@ hy: save: Պահպանել enabled: "Միացվա՞ծ է:" delete: Ջնջել + rag: uploads: title: "Վերբեռնումներ" uploading: "Վերբեռնում..." @@ -56,6 +57,7 @@ hy: test_modal: run: "Մեկնարկել Փորձարկումը" llms: + display_name: "Անուն" save: "Պահպանել" edit: "Խմբագրել" back: "Ետ" @@ -67,6 +69,7 @@ hy: success: "Հաջողություն!" providers: google: "Google" + fake: "Մասնավոր" ai_helper: context_menu: cancel: "Չեղարկել" diff --git a/config/locales/client.id.yml b/config/locales/client.id.yml index f11d5523..c67d1208 100644 --- a/config/locales/client.id.yml +++ b/config/locales/client.id.yml @@ -107,8 +107,6 @@ id: question_consolidator_llm: Model Bahasa untuk Konsolidator Pertanyaan question_consolidator_llm_help: Model bahasa yang digunakan untuk konsolidator pertanyaan, Anda dapat memilih model yang kurang kuat untuk menghemat biaya. system_prompt: Perintah Sistem - show_indexing_options: "Tampilkan Opsi Unggah" - hide_indexing_options: "Sembunyikan Opsi Unggah" allow_chat: "Izinkan Obrolan" allow_chat_help: "Jika diaktifkan, pengguna di grup yang diizinkan dapat mengirimkan DM ke persona ini" save: Simpan @@ -116,8 +114,11 @@ id: delete: Hapus temperature: Temperatur top_p: Top P + rag: + options: + show_indexing_options: "Tampilkan Opsi Unggah" + hide_indexing_options: "Sembunyikan Opsi Unggah" uploads: - description: "Persona AI Anda akan dapat mencari dan mereferensikan konten file yang disertakan. File yang diunggah harus diformat sebagai teks biasa (.txt) atau markdown (.md)." uploading: "Mengunggah..." tools: back: "Kembali" @@ -131,6 +132,7 @@ id: test_modal: run: "Operasikan Tes" llms: + display_name: "Nama" save: "Simpan" edit: "Ubah" back: "Kembali" diff --git a/config/locales/client.it.yml b/config/locales/client.it.yml index c3a2e858..1ceb2d77 100644 --- a/config/locales/client.it.yml +++ b/config/locales/client.it.yml @@ -135,8 +135,6 @@ it: question_consolidator_llm: Modello linguistico per il consolidatore di domande question_consolidator_llm_help: Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi. system_prompt: Comando di sistema - show_indexing_options: "Mostra opzioni di caricamento" - hide_indexing_options: "Nascondi opzioni di caricamento" allow_chat: "Consenti chat" allow_chat_help: "Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono scrivere in DM questa persona" save: Salva @@ -156,10 +154,6 @@ it: priority: Priorità priority_help: I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico. tool_options: "Opzioni dello strumento" - rag_chunk_tokens: "Carica token di blocco" - rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)" - rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco" - rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)" rag_conversation_chunks: "Cerca blocchi di conversazione" rag_conversation_chunks_help: "Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare." what_are_personas: "Cosa sono i personaggi IA?" @@ -173,9 +167,16 @@ it: #### Accesso specifico per gruppo ai personaggi IA Inoltre, puoi configurarli in modo che determinati gruppi di utenti abbiano accesso a personaggi specifici. Ciò significa che puoi avere comportamenti IA diversi per le diverse sezioni del tuo forum, migliorando ulteriormente la diversità e la ricchezza delle interazioni della tua community. + rag: + options: + rag_chunk_tokens: "Carica token di blocco" + rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)" + rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco" + rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)" + show_indexing_options: "Mostra opzioni di caricamento" + hide_indexing_options: "Nascondi opzioni di caricamento" uploads: title: "Caricamenti" - description: "Il tuo personaggio IA sarà in grado di cercare e fare riferimento al contenuto dei file inclusi. I file caricati devono essere formattati come testo normale (.txt) o markdown (.md)." button: "Aggiungi file" filter: "Filtro caricamenti" indexed: "Indicizzato" @@ -219,9 +220,7 @@ it: short_title: "LLM" no_llms: "Ancora nessun LLM" new: "Nuovo modello" - display_name: "Nome da visualizzare" - name: "Nome del modello" - provider: "Servizio che ospita il modello" + display_name: "Nome" tokenizer: "Tokenizzatore" max_prompt_tokens: "Numero di token per il comando" url: "URL del servizio che ospita il modello" @@ -236,8 +235,6 @@ it: confirm_delete: Vuoi davvero eliminare questo modello? delete: Elimina preconfigured_llms: "Seleziona il tuo LLM" - preconfigured: - none: "Configura manualmente..." next: title: "Avanti" tests: @@ -259,6 +256,7 @@ it: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Personalizzato" provider_fields: access_key_id: "ID chiave di accesso AWS Bedrock" region: "Regione AWS Bedrock" diff --git a/config/locales/client.ja.yml b/config/locales/client.ja.yml index b02521d7..2833008e 100644 --- a/config/locales/client.ja.yml +++ b/config/locales/client.ja.yml @@ -135,8 +135,6 @@ ja: question_consolidator_llm: 質問統合用の言語モデル question_consolidator_llm_help: 質問統合に使用する言語モデル。それほど強力でないモデルを選択してコストを節約することも可能です。 system_prompt: システムプロンプト - show_indexing_options: "アップロードオプションを表示" - hide_indexing_options: "アップロードオプションを非表示" allow_chat: "チャットを許可" allow_chat_help: "有効にすると、許可されているグループのユーザーはこのペルソナに DM を送信できます" save: 保存 @@ -156,10 +154,6 @@ ja: priority: 優先度 priority_help: 優先ペルソナはペルソナリストの先頭に表示されます。複数のペルソナが優先されている場合は、アルファベット順に並べ替えられます。 tool_options: "ツールのオプション" - rag_chunk_tokens: "チャンクトークンをアップロード" - rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)" - rag_chunk_overlap_tokens: "チャンクオーバーラップトークンをアップロード" - rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)" rag_conversation_chunks: "会話チャンクを検索" rag_conversation_chunks_help: "RAG モデル検索に使用するチャンクの数。値を増やすと、AI が使用できるコンテキストの量が増えます。" what_are_personas: "AI ペルソナとは何ですか?" @@ -173,9 +167,16 @@ ja: #### AI ペルソナへのアクセスをグループごとに設定 さらに、特定のユーザーグループが特定のペルソナにアクセスできるようにセットアップすることができます。そのため、フォーラムのセクションごとに異なる AI の振る舞いを適用し、コミュニティーの対話の多様性と充実度をさらに強化することができます。 + rag: + options: + rag_chunk_tokens: "チャンクトークンをアップロード" + rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)" + rag_chunk_overlap_tokens: "チャンクオーバーラップトークンをアップロード" + rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)" + show_indexing_options: "アップロードオプションを表示" + hide_indexing_options: "アップロードオプションを非表示" uploads: title: "アップロード" - description: "AI ペルソナは含まれているファイルのコンテンツを検索して参照できます。アップロードされるファイルはプレーンテキスト (.txt) または Markdown (.md) としてフォーマットされている必要があります。" button: "ファイルを追加" filter: "アップロードをフィルタ" indexed: "インデックスを作成しました" @@ -219,9 +220,7 @@ ja: short_title: "LLM" no_llms: "まだ LLM がありません" new: "新しいモデル" - display_name: "表示する名前" - name: "モデル名" - provider: "モデルをホストするサービス" + display_name: "名前" tokenizer: "トークナイザ―" max_prompt_tokens: "プロンプトのトークン数" url: "モデルをホストするサービスの URL" @@ -236,8 +235,6 @@ ja: confirm_delete: このモデルを削除してもよろしいですか? delete: 削除 preconfigured_llms: "LLM を選択してください" - preconfigured: - none: "手動で構成..." next: title: "次へ" tests: @@ -259,6 +256,7 @@ ja: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "カスタム" provider_fields: access_key_id: "AWS Bedrock アクセスキー ID" region: "AWS Bedrock リージョン" diff --git a/config/locales/client.ko.yml b/config/locales/client.ko.yml index e9fbc27e..1ec36afb 100644 --- a/config/locales/client.ko.yml +++ b/config/locales/client.ko.yml @@ -40,6 +40,7 @@ ko: save: 저장 enabled: "활성화?" delete: 삭제하기 + rag: uploads: title: "업로드된 파일" uploading: "업로드 중..." @@ -58,6 +59,7 @@ ko: test_modal: run: "테스트 실행" llms: + display_name: "그룹명" save: "저장" edit: "편집" back: "뒤로" @@ -69,6 +71,7 @@ ko: success: "성공!" providers: google: "구글" + fake: "사용자 정의" ai_helper: context_menu: cancel: "취소" diff --git a/config/locales/client.lt.yml b/config/locales/client.lt.yml index cb51be5a..ee9c4a06 100644 --- a/config/locales/client.lt.yml +++ b/config/locales/client.lt.yml @@ -76,6 +76,7 @@ lt: enabled: "Galimas?" allowed_groups: Leidžiamos grupės delete: Pašalinti + rag: uploads: title: "Įkėlimai" uploading: "Įkeliama" @@ -94,6 +95,7 @@ lt: test_modal: run: "Vykdyti testą" llms: + display_name: "Vardas" save: "Išsaugoti" edit: "Redaguoti" back: "Atgal" @@ -105,6 +107,7 @@ lt: success: "Sėkmingai!" providers: google: "Google" + fake: "Išskirtinės" ai_helper: context_menu: trigger: "Paklauskite AI" diff --git a/config/locales/client.lv.yml b/config/locales/client.lv.yml index 4dc78924..e09e2f35 100644 --- a/config/locales/client.lv.yml +++ b/config/locales/client.lv.yml @@ -38,6 +38,7 @@ lv: save: Saglabāt enabled: "Ieslēgts?" delete: Dzēst + rag: uploads: title: "Augšupielādes" uploading: "Notiek ielāde..." @@ -53,6 +54,7 @@ lv: next: title: "Nākamais" llms: + display_name: "Vārds" save: "Saglabāt" edit: "Rediģēt" back: "Atpakaļ" diff --git a/config/locales/client.nb_NO.yml b/config/locales/client.nb_NO.yml index 9dbe5de4..8643d8e2 100644 --- a/config/locales/client.nb_NO.yml +++ b/config/locales/client.nb_NO.yml @@ -38,6 +38,7 @@ nb_NO: save: Lagre enabled: "Aktivert?" delete: Slett + rag: uploads: title: "Opplastinger" uploading: "Laster opp…" @@ -56,6 +57,7 @@ nb_NO: test_modal: run: "Kjør test" llms: + display_name: "Navn" save: "Lagre" edit: "Endre" back: "Forrige" @@ -67,6 +69,7 @@ nb_NO: success: "Suksess!" providers: google: "Google" + fake: "Egendefinert" ai_helper: context_menu: cancel: "Avbryt" diff --git a/config/locales/client.nl.yml b/config/locales/client.nl.yml index 3a996d59..33686f54 100644 --- a/config/locales/client.nl.yml +++ b/config/locales/client.nl.yml @@ -135,8 +135,6 @@ nl: question_consolidator_llm: Taalmodel voor Vragenconsolidator question_consolidator_llm_help: Het te gebruiken taalmodel voor de vragenconsolidator. Je kunt een minder krachtig model kiezen om kosten te besparen. system_prompt: Systeemprompt - show_indexing_options: "Uploadopties weergeven" - hide_indexing_options: "Uploadopties verbergen" allow_chat: "Chat toestaan" allow_chat_help: "Indien ingeschakeld, kunnen gebruikers in toegestane groepen deze persona een direct bericht sturen" save: Opslaan @@ -156,10 +154,6 @@ nl: priority: Prioriteit priority_help: Prioritaire persona's worden bovenaan de personalijst weergegeven voor gebruikers. Als meerdere persona's prioriteit hebben, worden deze alfabetisch gesorteerd. tool_options: "Toolopties" - rag_chunk_tokens: "Uploadchunktokens" - rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)" - rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens" - rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)" rag_conversation_chunks: "Conversatiechunks zoeken" rag_conversation_chunks_help: "Het te gebruiken aantal chunks voor zoeken door het RAG-model. Verhoog dit om de hoeveelheid context te vergroten die de AI kan gebruiken." what_are_personas: "Wat zijn AI-persona's?" @@ -173,9 +167,16 @@ nl: #### Groepsspecifieke toegang tot AI-persona's Bovendien kun je het zo instellen dat bepaalde gebruikersgroepen toegang hebben tot specifieke persona's. Dit betekent dat je verschillende AI-gedragingen kunt hebben voor verschillende secties van je forum, waardoor de diversiteit en rijkdom van de interacties in je community verder toeneemt. + rag: + options: + rag_chunk_tokens: "Uploadchunktokens" + rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)" + rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens" + rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)" + show_indexing_options: "Uploadopties weergeven" + hide_indexing_options: "Uploadopties verbergen" uploads: title: "Uploads" - description: "Je AI-persona kan de inhoud van de opgenomen bestanden zoeken en ernaar verwijzen. Geüploade bestanden moeten zijn opgemaakt als platte tekst (.txt) of markdown (.md)." button: "Bestanden toevoegen" filter: "Uploads filteren" indexed: "Geïndexeerd" @@ -219,9 +220,7 @@ nl: short_title: "LLM's" no_llms: "Nog geen LLM's" new: "Nieuw model" - display_name: "Weer te geven naam" - name: "Modelnaam" - provider: "Service die het model host" + display_name: "Naam" tokenizer: "Tokenizer" max_prompt_tokens: "Aantal tokens voor de prompt" url: "URL van de service die het model host" @@ -236,8 +235,6 @@ nl: confirm_delete: Weet je zeker dat je dit model wilt verwijderen? delete: Verwijderen preconfigured_llms: "Selecteer je LLM" - preconfigured: - none: "Handmatig configureren..." next: title: "Volgende" tests: @@ -259,6 +256,7 @@ nl: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Aangepast" provider_fields: access_key_id: "Toegangssleutel-ID AWS Bedrock" region: "Regio AWS Bedrock" diff --git a/config/locales/client.pl_PL.yml b/config/locales/client.pl_PL.yml index a43055c1..ba92539d 100644 --- a/config/locales/client.pl_PL.yml +++ b/config/locales/client.pl_PL.yml @@ -129,6 +129,7 @@ pl_PL: temperature_help: Temperatura do zastosowania w LLM, zwiększ, aby zwiększyć kreatywność (pozostaw puste, aby użyć domyślnego modelu, zazwyczaj wartość od 0,0 do 2,0) priority: Priorytet priority_help: Priorytetowe persony są wyświetlane użytkownikom na górze listy person. Jeśli wiele person ma priorytet, zostaną one posortowane alfabetycznie. + rag: uploads: title: "Pliki" button: "Dodaj pliki" @@ -148,6 +149,7 @@ pl_PL: test_modal: run: "Przeprowadź test" llms: + display_name: "Nazwa" save: "Zapisz" edit: "Edytuj" back: "Poprzednia" @@ -159,6 +161,7 @@ pl_PL: success: "Sukces!" providers: google: "Google" + fake: "Niestandardowe" related_topics: title: "Powiązane tematy" pill: "Powiązane" diff --git a/config/locales/client.pt.yml b/config/locales/client.pt.yml index 5d477ed6..c0ce54d8 100644 --- a/config/locales/client.pt.yml +++ b/config/locales/client.pt.yml @@ -38,6 +38,7 @@ pt: save: Guardar enabled: "Ativado?" delete: Eliminar + rag: uploads: title: "Uploads" uploading: "A enviar…" @@ -53,6 +54,7 @@ pt: next: title: "Próximo" llms: + display_name: "Nome" save: "Guardar" edit: "Editar" back: "Retroceder" @@ -61,6 +63,7 @@ pt: title: "Próximo" providers: google: "Google" + fake: "Personalizar" ai_helper: context_menu: cancel: "Cancelar" diff --git a/config/locales/client.pt_BR.yml b/config/locales/client.pt_BR.yml index 17eb07a5..014842e9 100644 --- a/config/locales/client.pt_BR.yml +++ b/config/locales/client.pt_BR.yml @@ -135,8 +135,6 @@ pt_BR: question_consolidator_llm: Modelo de linguagem para consolidador de pergunta question_consolidator_llm_help: O modelo de linguagem a ser usado para o consolidador de pergunta. Para economizar, você pode escolher um modelo menos robusto. system_prompt: Prompt do sistema - show_indexing_options: "Exibir opções de envio" - hide_indexing_options: "Ocultar opções de envio" allow_chat: "Permitir chat" allow_chat_help: "Ative para que os(às) usuários(as) nos grupos permitidos possam enviar mensagens diretas a esta persona" save: Salvar @@ -156,10 +154,6 @@ pt_BR: priority: Prioridade priority_help: Personas de prioridade são exibidas aos(às) usuários(as) no topo da lista de personas. Se várias personas tiverem prioridade, serão escolhidas em ordem alfabética. tool_options: "Opções de ferramenta" - rag_chunk_tokens: "Enviar Tokens de Parte" - rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)" - rag_chunk_overlap_tokens: "Enviar Tokens de Sobreposição de Parte" - rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)" rag_conversation_chunks: "Pesquisar Pedaços de Conversa" rag_conversation_chunks_help: "O número de pedaços a serem usados para pesquisas de modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar." what_are_personas: "O que são personas de IA?" @@ -173,9 +167,16 @@ pt_BR: #### Acesso específico de grupo a personas de IA Além disso, você pode configurar para que determinados grupos de usuários(as) tenham acesso a personas específicas. Ou seja, você pode ter diferentes comportamentos de IA para seções distintas do seu fórum, melhorando ainda mais a diversidade e riqueza das interações da sua comunidade. + rag: + options: + rag_chunk_tokens: "Enviar Tokens de Parte" + rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)" + rag_chunk_overlap_tokens: "Enviar Tokens de Sobreposição de Parte" + rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)" + show_indexing_options: "Exibir opções de envio" + hide_indexing_options: "Ocultar opções de envio" uploads: title: "Envios" - description: "Sua persona de AI poderá pesquisar e referenciar o conteúdo dos arquivos inclusos. Os arquivos enviados devem ser formatados como texto não criptografado (.txt) ou Markdown (.md)." button: "Adicionar arquivos" filter: "Filtrar envios" indexed: "Indexado(a)" @@ -219,9 +220,7 @@ pt_BR: short_title: "LLMs" no_llms: "Nenhum LLM ainda" new: "Novo modelo" - display_name: "Nome a ser exibido" - name: "Nome do modelo" - provider: "Servido da hospedagem do modelo" + display_name: "Nome" tokenizer: "Tokenizador" max_prompt_tokens: "Quantidade de tokens para o prompt" url: "URL do serviço da hospedagem do modelo" @@ -236,8 +235,6 @@ pt_BR: confirm_delete: Tem certeza de que deseja excluir este modelo? delete: Excluir preconfigured_llms: "Selecione sua LLM" - preconfigured: - none: "Configure manualmente..." next: title: "Próximo" tests: @@ -259,6 +256,7 @@ pt_BR: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Personalizados(as)" provider_fields: access_key_id: "ID de chave de acesso do AWS Bedrock" region: "Região do AWS Bedrock" diff --git a/config/locales/client.ro.yml b/config/locales/client.ro.yml index 1998e898..6a86e33f 100644 --- a/config/locales/client.ro.yml +++ b/config/locales/client.ro.yml @@ -38,6 +38,7 @@ ro: save: Salvare enabled: "Activat?" delete: Șterge + rag: uploads: title: "Urcări" uploading: "Se încarcă..." @@ -53,6 +54,7 @@ ro: next: title: "Următorul" llms: + display_name: "Nume" save: "Salvează" edit: "Modifică" back: "Înapoi" @@ -63,6 +65,7 @@ ro: success: "Succes!" providers: google: "Google" + fake: "Personalizat" ai_helper: context_menu: cancel: "Anulare" diff --git a/config/locales/client.ru.yml b/config/locales/client.ru.yml index 95ccc681..fa2f324b 100644 --- a/config/locales/client.ru.yml +++ b/config/locales/client.ru.yml @@ -135,8 +135,6 @@ ru: question_consolidator_llm: Языковая модель для консолидатора вопросов question_consolidator_llm_help: Языковая модель, используемая для консолидатора вопросов; вы можете выбрать менее ресурсозатратную модель для экономии средств. system_prompt: Системый запрос - show_indexing_options: "Показать параметры загрузки" - hide_indexing_options: "Скрыть параметры загрузки" allow_chat: "Разрешить чат" allow_chat_help: "Если параметр включен, пользователи в разрешенных группах смогут отправлять личные сообщения этой персоне" save: Сохранить @@ -156,10 +154,6 @@ ru: priority: Приоритет priority_help: Приоритетные персоны показываются пользователям вверху списка персон. Если приоритет имеют несколько персон, они будут отсортированы в алфавитном порядке. tool_options: "Параметры инструмента" - rag_chunk_tokens: "Токены загрузочных фрагментов" - rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)" - rag_chunk_overlap_tokens: "Токены перекрытия загрузочных фрагментов" - rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)" rag_conversation_chunks: "Фрагменты разговора для поиска" rag_conversation_chunks_help: "Количество фрагментов для поиска в модели RAG. Увеличьте это значение, чтобы увеличить объем контекста, который может использовать AI." what_are_personas: "Что такое AI-персоны?" @@ -173,9 +167,16 @@ ru: #### Доступ для отдельных групп к AI-персонам Кроме того, вы можете настроить доступ определенных групп пользователей к конкретным персонам. Это означает, что вы можете использовать различное поведение AI для разных разделов форума, что способствует разнообразию и богатству взаимодействия с вашим сообществом. + rag: + options: + rag_chunk_tokens: "Токены загрузочных фрагментов" + rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)" + rag_chunk_overlap_tokens: "Токены перекрытия загрузочных фрагментов" + rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)" + show_indexing_options: "Показать параметры загрузки" + hide_indexing_options: "Скрыть параметры загрузки" uploads: title: "Загрузки" - description: "Ваша AI-персона сможет искать контент во включенных файлах и ссылаться на него. Загружаемые файлы должны быть в форматах обычного текста (.txt) или разметки markdown (.md)." button: "Добавить файлы" filter: "Фильтровать загрузки" indexed: "Проиндексированные" @@ -219,9 +220,7 @@ ru: short_title: "Большие языковые модели" no_llms: "Еще нет LLM" new: "Новая модель" - display_name: "Отображаемое название" - name: "Название модели" - provider: "Сервис хостинга модели" + display_name: "Название" tokenizer: "Токенизатор" max_prompt_tokens: "Количество токенов для запроса" url: "URL-адрес сервиса, где размещена модель" @@ -241,8 +240,6 @@ ru: many: "Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. " other: "Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. " preconfigured_llms: "Выберите LLM" - preconfigured: - none: "Настроить вручную..." next: title: "Далее" tests: @@ -264,6 +261,7 @@ ru: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Указать продолжительность" provider_fields: access_key_id: "Идентификатор ключа доступа к AWS Bedrock" region: "Регион AWS Bedrock" diff --git a/config/locales/client.sk.yml b/config/locales/client.sk.yml index 0e98cb7c..e805ef92 100644 --- a/config/locales/client.sk.yml +++ b/config/locales/client.sk.yml @@ -40,6 +40,7 @@ sk: save: Uložiť enabled: "Povolené?" delete: Odstrániť + rag: uploads: title: "Nahrávanie" uploading: "Načítavam..." @@ -59,6 +60,7 @@ sk: test_modal: run: "Spustiť test" llms: + display_name: "Meno" save: "Uložiť" edit: "Upraviť" back: "Späť" @@ -70,6 +72,7 @@ sk: success: "Úspech!" providers: google: "Google" + fake: "Vlastné" ai_helper: context_menu: cancel: "Zrušiť" diff --git a/config/locales/client.sl.yml b/config/locales/client.sl.yml index 2b905c45..1c6f8ffa 100644 --- a/config/locales/client.sl.yml +++ b/config/locales/client.sl.yml @@ -38,6 +38,7 @@ sl: save: Shrani enabled: "Vključeno?" delete: Izbriši + rag: uploads: title: "Prenosi" uploading: "Nalagam..." @@ -53,6 +54,7 @@ sl: next: title: "Naprej" llms: + display_name: "Ime" save: "Shrani" edit: "Uredi" back: "Nazaj" @@ -63,6 +65,7 @@ sl: success: "Uspeh!" providers: google: "Google" + fake: "Po meri" ai_helper: context_menu: cancel: "Prekliči" diff --git a/config/locales/client.sq.yml b/config/locales/client.sq.yml index 1c3c9d11..0c43c348 100644 --- a/config/locales/client.sq.yml +++ b/config/locales/client.sq.yml @@ -38,6 +38,7 @@ sq: save: Ruaj enabled: "Aktivizuar?" delete: Fshij + rag: uploads: uploading: "Duke ngarkuar..." tools: @@ -52,6 +53,7 @@ sq: next: title: "Vazhdo përpara" llms: + display_name: "Emri" save: "Ruaj" edit: "Redakto" back: "Kthehu mbrapa" @@ -60,6 +62,7 @@ sq: title: "Vazhdo përpara" providers: google: "Google" + fake: "Grupet e krijuara" ai_helper: context_menu: cancel: "Anulo" diff --git a/config/locales/client.sr.yml b/config/locales/client.sr.yml index ecb29831..6f329c0d 100644 --- a/config/locales/client.sr.yml +++ b/config/locales/client.sr.yml @@ -34,6 +34,7 @@ sr: save: Sačuvaj enabled: "Omgućeno" delete: Obriši + rag: uploads: uploading: "Uploading..." tools: @@ -48,6 +49,7 @@ sr: next: title: "Dalje" llms: + display_name: "Ime foruma" save: "Sačuvaj" edit: "Izmeni" back: "Nazad" @@ -56,6 +58,7 @@ sr: title: "Dalje" providers: google: "Google" + fake: "Posebna" ai_helper: context_menu: cancel: "Odustani" diff --git a/config/locales/client.sv.yml b/config/locales/client.sv.yml index a3e2685b..abc50fc1 100644 --- a/config/locales/client.sv.yml +++ b/config/locales/client.sv.yml @@ -38,6 +38,7 @@ sv: save: Spara enabled: "Aktiverad?" delete: Radera + rag: uploads: title: "Uppladdningar" uploading: "Laddar upp..." @@ -56,6 +57,7 @@ sv: test_modal: run: "Kör test" llms: + display_name: "Namn" save: "Spara" edit: "Redigera" back: "Tillbaka" @@ -67,6 +69,7 @@ sv: success: "Lyckades!" providers: google: "Google" + fake: "Anpassad" ai_helper: context_menu: cancel: "Avbryt" diff --git a/config/locales/client.sw.yml b/config/locales/client.sw.yml index fd2a6ba5..caa7fec0 100644 --- a/config/locales/client.sw.yml +++ b/config/locales/client.sw.yml @@ -38,6 +38,7 @@ sw: save: Hifadhi enabled: "Imeruhusiwa?" delete: Futa + rag: uploads: title: "Upakiaji" uploading: "Inaongezwa" @@ -53,6 +54,7 @@ sw: next: title: "Ijayo" llms: + display_name: "Jina" save: "Hifadhi" edit: "Hariri" back: "Iliyopita" @@ -63,6 +65,7 @@ sw: success: "Mafanikio!" providers: google: "Google" + fake: "Binafsi" ai_helper: context_menu: cancel: "Ghairi" diff --git a/config/locales/client.te.yml b/config/locales/client.te.yml index 58f2f69a..66431603 100644 --- a/config/locales/client.te.yml +++ b/config/locales/client.te.yml @@ -36,6 +36,7 @@ te: save: భద్రపరుచు enabled: "ప్రారంభించబడిందా?" delete: తొలగించు + rag: uploads: title: "అప్‌లోడ్‌లు" uploading: "ఎగుమతవుతోంది..." @@ -54,6 +55,7 @@ te: test_modal: run: "పరీక్షను అమలు చేయండి" llms: + display_name: "పేరు" save: "సేవ్ చేయండి" edit: "సవరించండి" back: "వెనుకకు" @@ -64,6 +66,7 @@ te: title: "పరీక్షను అమలు చేయండి" providers: google: "గూగుల్" + fake: "అనుకూల" ai_helper: context_menu: cancel: "రద్దుచేయి" diff --git a/config/locales/client.th.yml b/config/locales/client.th.yml index c7b6b80a..7e580d38 100644 --- a/config/locales/client.th.yml +++ b/config/locales/client.th.yml @@ -38,6 +38,7 @@ th: save: บันทึก enabled: "เปิดใช้" delete: ลบ + rag: uploads: title: "อัปโหลด" uploading: "กำลังอัปโหลด..." @@ -53,6 +54,7 @@ th: next: title: "ต่อไป" llms: + display_name: "ชื่อ" save: "บันทึก" edit: "แก้ไข" back: "กลับ" diff --git a/config/locales/client.tr_TR.yml b/config/locales/client.tr_TR.yml index 7f008c3f..1c963244 100644 --- a/config/locales/client.tr_TR.yml +++ b/config/locales/client.tr_TR.yml @@ -135,8 +135,6 @@ tr_TR: question_consolidator_llm: Soru Konsolidatörü için Dil Modeli question_consolidator_llm_help: Soru birleştirici için kullanılacak dil modeli, maliyetten tasarruf etmek için daha az güçlü bir model seçebilirsiniz. system_prompt: Sistem İstemi - show_indexing_options: "Karşıya Yükleme Seçeneklerini göster" - hide_indexing_options: "Karşıya Yükleme Seçeneklerini gizle" allow_chat: "Sohbete izin ver" allow_chat_help: "Etkinleştirilirse izin verilen gruplardaki kullanıcılar bu kişiye DM gönderebilir" save: Kaydet @@ -156,10 +154,6 @@ tr_TR: priority: Öncelik priority_help: Öncelikli kişilikler kullanıcılara kişilik listesinin en üstünde gösterilir. Birden fazla kişiliğin önceliği varsa bunlar alfabetik olarak sıralanır. tool_options: "Araç Seçenekleri" - rag_chunk_tokens: "Parça Token'ları yükle" - rag_chunk_tokens_help: "RAG modelindeki her yığın için kullanılacak belirteç sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın. (değiştirmek tüm yüklemeleri yeniden endeksler)" - rag_chunk_overlap_tokens: "Parça Örtüşme Token'ları yükle" - rag_chunk_overlap_tokens_help: "RAG modelinde yığınlar arasında üst üste binecek token sayısı. (değiştirme tüm yüklemeleri yeniden endeksler)" rag_conversation_chunks: "Konuşma Parçaları ara" rag_conversation_chunks_help: "RAG modeli aramaları için kullanılacak parça sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın." what_are_personas: "YZ Kişileri nedir?" @@ -173,9 +167,16 @@ tr_TR: #### YZ Kişilerine Gruba Özel Erişim Dahası, belirli kullanıcı gruplarının belirli kişiliklere erişime sahip olacak şekilde de belirleyebilirsiniz. Bu, forumunuzun farklı bölümleri için farklı YZ davranışlarına sahip olabileceğiniz anlamına gelir ve böylece topluluğunuzun etkileşimlerinin çeşitliliğini ve zenginliğini geliştirebilirsiniz. + rag: + options: + rag_chunk_tokens: "Parça Token'ları yükle" + rag_chunk_tokens_help: "RAG modelindeki her yığın için kullanılacak belirteç sayısı. YZ'nin kullanabileceği bağlam miktarını artırmak için artırın. (değiştirmek tüm yüklemeleri yeniden endeksler)" + rag_chunk_overlap_tokens: "Parça Örtüşme Token'ları yükle" + rag_chunk_overlap_tokens_help: "RAG modelinde yığınlar arasında üst üste binecek token sayısı. (değiştirme tüm yüklemeleri yeniden endeksler)" + show_indexing_options: "Karşıya Yükleme Seçeneklerini göster" + hide_indexing_options: "Karşıya Yükleme Seçeneklerini gizle" uploads: title: "Yüklemeler" - description: "YZ kişiniz, dâhil edilen dosyaların içeriğini arayabilir ve referans verebilir. Yüklenen dosyalar düz metin (.txt) veya markdown (.md) olarak biçimlendirilmelidir." button: "Dosya ekle" filter: "Yüklemeleri filtrele" indexed: "İndekslendi" @@ -219,9 +220,7 @@ tr_TR: short_title: "LLM'ler" no_llms: "Henüz LLM yok" new: "Yeni Model" - display_name: "Gösterilecek ad" - name: "Model adı" - provider: "Modeli barındıran hizmet" + display_name: "Ad" tokenizer: "Token'laştırıcı" max_prompt_tokens: "İstem için token sayısı" url: "Modeli barındıran hizmetin URL'si" @@ -236,8 +235,6 @@ tr_TR: confirm_delete: Bu modeli silmek istediğinizden emin misiniz? delete: Sil preconfigured_llms: "LLM'nizi seçin" - preconfigured: - none: "Manuel olarak yapılandırın..." next: title: "İleri" tests: @@ -259,6 +256,7 @@ tr_TR: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "Özel" provider_fields: access_key_id: "AWS Bedrock Erişim anahtarı Kimliği" region: "AWS Bedrock Bölgesi" diff --git a/config/locales/client.ug.yml b/config/locales/client.ug.yml index e5325e81..0462faee 100644 --- a/config/locales/client.ug.yml +++ b/config/locales/client.ug.yml @@ -40,6 +40,7 @@ ug: save: ساقلا enabled: "قوزغىتىلدى؟" delete: ئۆچۈر + rag: uploads: title: "يۈكلەنمە" uploading: "يۈكلەۋاتىدۇ..." @@ -59,6 +60,7 @@ ug: test_modal: run: "سىناقنى ئىجرا قىل" llms: + display_name: "ئىسمى" save: "ساقلا" edit: "تەھرىر" back: "كەينى" @@ -70,6 +72,7 @@ ug: success: "مۇۋەپپەقىيەتلىك!" providers: google: "Google" + fake: "ئىختىيارى" ai_helper: context_menu: cancel: "ۋاز كەچ" diff --git a/config/locales/client.uk.yml b/config/locales/client.uk.yml index 69afaa7a..24c0e7cf 100644 --- a/config/locales/client.uk.yml +++ b/config/locales/client.uk.yml @@ -40,6 +40,7 @@ uk: save: Зберегти enabled: "Включено?" delete: Видалити + rag: uploads: title: "Завантаження" uploading: "Надсилання…" @@ -59,6 +60,7 @@ uk: test_modal: run: "Виконати Тест" llms: + display_name: "Імʼя" save: "Зберегти" edit: "Редагувати" back: "Назад" @@ -70,6 +72,7 @@ uk: success: "Успіх!" providers: google: "Google" + fake: "Користувацька" ai_helper: context_menu: cancel: "Скасувати" diff --git a/config/locales/client.ur.yml b/config/locales/client.ur.yml index 5ce29e6f..ca731dfe 100644 --- a/config/locales/client.ur.yml +++ b/config/locales/client.ur.yml @@ -38,6 +38,7 @@ ur: save: محفوظ کریں enabled: "فعال؟" delete: مٹائیں + rag: uploads: title: "اَپ لوڈز" uploading: "اَپ لوڈ کیا جا رہا ہے..." @@ -56,6 +57,7 @@ ur: test_modal: run: "ٹیسٹ چلائیں" llms: + display_name: "نام" save: "محفوظ کریں" edit: "ترمیم کریں" back: "واپس" @@ -67,6 +69,7 @@ ur: success: "کامیابی!" providers: google: "گُوگَل" + fake: "اپنی مرضی کا" ai_helper: context_menu: cancel: "منسوخ" diff --git a/config/locales/client.vi.yml b/config/locales/client.vi.yml index e3b98ba6..3b3e6833 100644 --- a/config/locales/client.vi.yml +++ b/config/locales/client.vi.yml @@ -38,6 +38,7 @@ vi: save: Lưu lại enabled: "Kích hoạt" delete: Xóa + rag: uploads: title: "Tải lên" uploading: "Đang đăng " @@ -56,6 +57,7 @@ vi: test_modal: run: "Chạy thử nghiệm" llms: + display_name: "Tên" save: "Lưu lại" edit: "Sửa" back: "Quay lại" @@ -67,6 +69,7 @@ vi: success: "Thành công!" providers: google: "G" + fake: "Tùy biến" ai_helper: context_menu: cancel: "Huỷ" diff --git a/config/locales/client.zh_CN.yml b/config/locales/client.zh_CN.yml index 85b0b4fc..be0174a0 100644 --- a/config/locales/client.zh_CN.yml +++ b/config/locales/client.zh_CN.yml @@ -135,8 +135,6 @@ zh_CN: question_consolidator_llm: 问题整合器的语言模型 question_consolidator_llm_help: 用于问题整合器的语言模型,您可以选择功能较弱的模型来节省成本。 system_prompt: 系统提示 - show_indexing_options: "显示上传选项" - hide_indexing_options: "隐藏上传选项" allow_chat: "允许聊天" allow_chat_help: "如果启用,允许的群组中的用户可以向此角色发送私信" save: 保存 @@ -156,10 +154,6 @@ zh_CN: priority: 优先 priority_help: 优先角色会在角色列表的顶部向用户显示。如果多个角色都具有优先级,将按字母顺序排序。 tool_options: "工具选项" - rag_chunk_tokens: "上传分块词元" - rag_chunk_tokens_help: "RAG 模型中为每个分块使用的词元数。增大词元数会增加 AI 可以使用的上下文数量。(更改词元数将为所有上传内容重新编制索引)" - rag_chunk_overlap_tokens: "上传分块重叠词元" - rag_chunk_overlap_tokens_help: "RAG 模型中分块之间重叠的词元数。(更改词元数将为所有上传内容重新编制索引)" rag_conversation_chunks: "搜索对话分块" rag_conversation_chunks_help: "为 RAG 模型搜索使用的分块数。增加分块数会增加 AI 可以使用的上下文数量。" what_are_personas: "什么是 AI 角色?" @@ -173,9 +167,16 @@ zh_CN: #### 对 AI 角色的群组特定的访问 此外,您还可以对其进行设置,以便某些用户群组可以访问特定角色。这意味着您可以为论坛的不同版块设置不同的 AI 行为,从而进一步增强社区互动的多元化和丰富性。 + rag: + options: + rag_chunk_tokens: "上传分块词元" + rag_chunk_tokens_help: "RAG 模型中为每个分块使用的词元数。增大词元数会增加 AI 可以使用的上下文数量。(更改词元数将为所有上传内容重新编制索引)" + rag_chunk_overlap_tokens: "上传分块重叠词元" + rag_chunk_overlap_tokens_help: "RAG 模型中分块之间重叠的词元数。(更改词元数将为所有上传内容重新编制索引)" + show_indexing_options: "显示上传选项" + hide_indexing_options: "隐藏上传选项" uploads: title: "上传" - description: "您的 AI 角色将能够搜索和引用所包含文件的内容。上传的文件应格式化为纯文本 (.txt) 或 markdown (.md)。" button: "添加文件" filter: "筛选上传" indexed: "已编制索引" @@ -219,9 +220,7 @@ zh_CN: short_title: "LLM" no_llms: "没有 LLM" new: "新建模型" - display_name: "用于显示的名称" - name: "模型名称" - provider: "托管模型的服务" + display_name: "名称" tokenizer: "词元生成器" max_prompt_tokens: "提示的词元数" url: "托管模型的服务的 URL" @@ -236,8 +235,6 @@ zh_CN: confirm_delete: 确定要删除此模型吗? delete: 删除 preconfigured_llms: "选择您的 LLM" - preconfigured: - none: "手动配置..." next: title: "下一步" tests: @@ -259,6 +256,7 @@ zh_CN: google: "Google" azure: "Azure" ollama: "Ollama" + fake: "自定义" provider_fields: access_key_id: "AWS Bedrock 访问密钥 ID" region: "AWS Bedrock 区域" diff --git a/config/locales/client.zh_TW.yml b/config/locales/client.zh_TW.yml index 9b361d0a..ced0aba6 100644 --- a/config/locales/client.zh_TW.yml +++ b/config/locales/client.zh_TW.yml @@ -36,6 +36,7 @@ zh_TW: save: 保存 enabled: "啟用?" delete: 刪除 + rag: uploads: title: "上傳檔案" uploading: "上傳中..." @@ -54,6 +55,7 @@ zh_TW: test_modal: run: "執行測試" llms: + display_name: "名字" save: "保存" edit: "編輯" back: "上一步" @@ -65,6 +67,7 @@ zh_TW: success: "成功!" providers: google: "Google" + fake: "客製" ai_helper: context_menu: cancel: "取消"