discourse-ai/config/locales/client.de.yml

311 lines
16 KiB
YAML
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# WARNING: Never edit this file.
# It will be overwritten when translations are pulled from Crowdin.
#
# To work with us on translations, join this project:
# https://translate.discourse.org/
de:
admin_js:
admin:
site_settings:
categories:
discourse_ai: "Discourse-KI"
js:
discourse_automation:
ai_models:
gpt_4_turbo: GPT 4 Turbo
gpt_4: GPT 4
gpt_3_5_turbo: GPT 3.5 Turbo
claude_2: Claude 2
gemini_pro: Gemini Pro
gemini_1_5_pro: Gemini 1.5 Pro
claude_3_opus: Claude 3 Opus
claude_3_sonnet: Claude 3 Sonett
claude_3_haiku: Claude 3 Haiku
mixtral_8x7b_instruct_v0_1: Mixtral 8x7B Anleitung V0.1
mistral_7b_instruct_v0_2: Mistral 7B Anleitung V0.2
command_r: Cohere Befehl R
command_r_plus: Cohere Befehl R+
scriptables:
llm_report:
fields:
sender:
label: "Absender"
description: "Der Benutzer, der den Bericht senden wird"
receivers:
label: "Empfänger"
description: "Die Benutzer, die den Bericht erhalten sollen (an E-Mail-Adressen wird eine E-Mail verschickt, Benutzernamen erhalten eine PN)"
topic_id:
label: "Themen-ID"
description: "Die Themen-ID für die Veröffentlichung des Berichts"
title:
label: "Titel"
description: "Der Titel des Berichts"
days:
label: "Tage"
description: "Die Zeitspanne des Berichts"
offset:
label: "Offset"
description: "Wenn du den Bericht zu Testzwecken in der Vergangenheit ausführen möchtest, kannst du den Bericht mit einem Offset zu einem früheren Zeitpunkt starten."
instructions:
label: "Anweisungen"
description: "Die Anweisungen für das große Sprachmodell"
sample_size:
label: "Stichprobengröße"
description: "Die Anzahl der Beiträge, die für den Bericht ausgewählt werden sollen"
tokens_per_post:
label: "Token pro Beitrag"
description: "Die Anzahl der pro Beitrag zu verwendenden LLM-Token"
model:
label: "Modell"
description: "LLM zur Berichtserstellung"
categories:
label: "Kategorien"
description: "Themen nur nach diesen Kategorien filtern"
tags:
label: "Schlagwörter"
description: "Themen nur nach diesen Schlagwörtern filtern"
exclude_tags:
label: "Schlagworte ausschließen"
description: "Themen mit diesen Schlagwörtern ausschließen"
exclude_categories:
label: "Kategorien ausschließen"
description: "Themen mit diesen Kategorien ausschließen"
allow_secure_categories:
label: "Sichere Kategorien zulassen"
description: "Erlaube, dass der Bericht für Themen in sicheren Kategorien erstellt wird"
suppress_notifications:
label: "Benachrichtigungen unterdrücken"
description: "Unterdrücke Benachrichtigungen, die der Bericht durch die Umwandlung in Inhalt erzeugen kann. Dadurch werden Erwähnungen und interne Links umgewandelt."
debug_mode:
label: "Debug-Modus"
description: "Aktiviere den Debug-Modus, um die Roheingabe und -ausgabe des LLM anzuzeigen"
priority_group:
label: "Prioritätsgruppe"
description: "Inhalte aus dieser Gruppe im Bericht hervorheben"
temperature:
label: "Temperatur"
description: "Temperatur, die für das LLM verwendet werden soll, erhöhen, um die Zufälligkeit zu erhöhen (0, um das Standardmodell zu verwenden)"
top_p:
label: "Top P"
description: "Top P für die LLM, erhöhen, um die Zufälligkeit zu erhöhen (0, um das Standardmodell zu verwenden)"
llm_triage:
fields:
system_prompt:
label: "System-Eingabeaufforderung"
description: "Die Eingabeaufforderung, die für die Triage verwendet wird. Achte darauf, dass sie mit einem einzigen Wort antwortet, das du zum Auslösen der Aktion verwenden kannst"
search_for_text:
label: "Suche nach Text"
description: "Wenn der folgende Text in der LLM-Antwort erscheint, wende diese Maßnahmen an"
category:
label: "Kategorie"
description: "Kategorie, die auf das Thema anzuwenden ist"
tags:
label: "Schlagwörter"
description: "Schlagwörter, die auf das Thema anzuwenden sind"
canned_reply:
label: "Antworten"
description: "Rohtext einer vorgefertigten Antwort auf einen Beitrag zum Thema"
canned_reply_user:
label: "Antwortender Benutzer"
description: "Benutzername des Benutzers, der die vorgefertigte Antwort posten soll"
hide_topic:
label: "Thema ausblenden"
description: "Thema nicht für die Öffentlichkeit sichtbar machen, wenn ausgelöst"
flag_post:
label: "Zur Überprüfung senden"
description: "Setzt den Beitrag in die Überprüfungswarteschlange, wenn er ausgelöst wurde, damit die Moderatoren ihn sichten können."
model:
label: "Modell"
description: "Entweder gpt-4 oder gpt-3-5-turbo oder claude-2"
discourse_ai:
title: "KI"
modals:
select_option: "Wähle eine Option aus..."
ai_persona:
back: Zurück
name: Name
edit: Bearbeiten
description: Beschreibung
no_llm_selected: "Kein Sprachmodell ausgewählt"
max_context_posts: "Max. Kontext-Beiträge"
max_context_posts_help: "Die maximale Anzahl von Beiträgen, die die KI als Kontext für die Antwort auf einen Nutzer verwenden soll. (leer für Standard)"
vision_enabled: Vision Aktiviert
vision_enabled_help: Wenn diese Funktion aktiviert ist, versucht die KI, die Bilder zu verstehen, die die Benutzer in dem Thema posten, je nachdem, welches Modell das Sehen unterstützt. Anthropic Claude 3 Modelle unterstützen das Sehen.
vision_max_pixels: Unterstützte Bildgröße
vision_max_pixel_sizes:
low: Niedrige Qualität - am günstigsten (256x256)
medium: Mittlere Qualität (512x512)
high: Hohe Qualität — am langsamsten (1024x1024)
mentionable: Erwähnungen zulassen
mentionable_help: Wenn diese Funktion aktiviert ist, können Benutzer in erlaubten Gruppen diese Persona in Beiträgen erwähnen und die KI wird als diese Persona antworten.
user: Benutzer
create_user: Benutzer erstellen
create_user_help: Du kannst dieser Persona optional einen Benutzer zuordnen. Wenn du das tust, wird die KI diesen Benutzer verwenden, um auf Anfragen zu antworten.
default_llm: Standard-Sprachmodell
default_llm_help: Das Standard-Sprachmodell, das für diese Persona verwendet werden soll. Erforderlich, wenn du die Persona in öffentlichen Beiträgen erwähnen möchtest.
question_consolidator_llm: Sprachmodell für Fragenkonsolidierer
question_consolidator_llm_help: Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen.
system_prompt: System-Eingabeaufforderung
show_indexing_options: "Upload-Optionen anzeigen"
hide_indexing_options: "Upload-Optionen ausblenden"
allow_chat: "Chat zulassen"
allow_chat_help: "Wenn diese Option aktiviert ist, können Benutzer in befugten Gruppen dieser Persona eine DM senden"
save: Speichern
saved: KI-Persona gespeichert
enabled: "Aktiviert?"
commands: Aktivierte Befehle
allowed_groups: Erlaubte Gruppen
confirm_delete: Bist du sicher, dass du diese Persona löschen willst?
new: "Neue Persona"
title: "KI-Personas"
short_title: "Personas"
delete: Löschen
temperature: Temperatur
temperature_help: Temperatur, die für das LLM verwendet werden soll, erhöhen, um die Kreativität zu steigern (leer lassen, um den Standardwert des Modells zu verwenden, im Allgemeinen ein Wert zwischen 0,0 und 2,0)
top_p: Top P
top_p_help: Top P für die LLM, erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um die Modellvorgabe zu verwenden, in der Regel ein Wert zwischen 0,0 und 1,0)
priority: Priorität
priority_help: Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert.
command_options: "Befehlsoptionen"
rag_chunk_tokens: "Chunk-Token hochladen"
rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu erhöhen, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads)"
rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen"
rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (eine Änderung führt zu einer Neuindizierung aller Uploads)"
rag_conversation_chunks: "Suche Unterhaltungs-Chunks"
rag_conversation_chunks_help: "Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu erhöhen, den die KI verwenden kann."
what_are_personas: "Was sind KI-Personas?"
no_persona_selected: |
KI-Personas sind eine leistungsstarke Funktion, mit der Sie das Verhalten der KI-Engine in Ihrem Discourse-Forum anpassen können. Sie dienen als „Systembotschaft“, die die Reaktionen und Interaktionen der KI steuert und dazu beiträgt, ein persönlicheres und ansprechenderes Nutzererlebnis zu schaffen.
#### Warum KI-Personas verwenden?
Mit KI-Personas kannst du das Verhalten der KI so anpassen, dass es besser zum Kontext und zum Ton deines Forums passt. Egal, ob du möchtest, dass die KI für ein professionelles Umfeld formeller, für ein Community-Forum lockerer ist oder sogar einen bestimmten Charakter für ein Rollenspiel verkörpert, KI-Personas bieten dir die nötige Flexibilität dafür.
#### Gruppenspezifischer Zugriff auf KI-Personas
Außerdem kannst du ihn so einrichten, dass bestimmte Benutzergruppen Zugriff auf bestimmte Personas haben. Das bedeutet, dass Sie für verschiedene Bereiche Ihres Forums unterschiedliche KI-Verhaltensweisen verwenden können, was die Vielfalt und den Reichtum der Interaktionen Ihrer Community weiter verbessert.
uploads:
title: "Uploads"
description: "Deine KI-Persona wird in der Lage sein, den Inhalt der enthaltenen Dateien zu durchsuchen und zu referenzieren. Hochgeladene Dateien sollten als Plaintext (.txt) oder Markdown (.md) formatiert sein."
button: "Dateien hinzufügen"
filter: "Uploads filtern"
indexed: "Indiziert"
indexing: "Indizierung"
uploaded: "Bereit zur Indizierung"
uploading: "Wird hochgeladen …"
remove: "Upload entfernen"
related_topics:
title: "Verwandte Themen"
pill: "Verwandt"
ai_helper:
title: "Änderungen mit KI vorschlagen"
description: "Wähle eine der folgenden Optionen und die KI schlägt dir eine neue Version des Textes vor."
selection_hint: "Tipp: Du kannst auch einen Teil des Textes auswählen, bevor du den Assistenten öffnest, um nur diesen Teil neu zu schreiben."
suggest: "Mit KI vorschlagen"
missing_content: "Bitte gib einige Inhalte ein, um Vorschläge zu generieren."
context_menu:
back: "Zurück"
trigger: "KI"
undo: "Rückgängig machen"
loading: "KI generiert"
cancel: "Abbrechen"
regen: "Erneut versuchen"
view_changes: "Änderungen anzeigen"
confirm: "Bestätigen"
revert: "Verwerfen"
changes: "Änderungen"
custom_prompt:
title: "Benutzerdefinierte Eingabeaufforderung"
placeholder: "Benutzerdefinierte Eingabeaufforderung …"
submit: "Aufforderung senden"
post_options_menu:
trigger: "KI fragen"
title: "KI fragen"
loading: "KI generiert"
close: "Schließen"
copy: "Kopieren"
copied: "Kopiert!"
cancel: "Abbrechen"
insert_footnote: "Fußnote hinzufügen"
footnote_credits: "Erklärung durch KI"
fast_edit:
suggest_button: "Bearbeiten vorschlagen"
thumbnail_suggestions:
title: "Vorgeschlagene Miniaturansichten"
select: "Auswählen"
selected: "Ausgewählt"
image_caption:
button_label: "Beschriftung mit KI"
generating: "Beschriftung generieren..."
credits: "Untertitelt von KI"
save_caption: "Speichern"
reviewables:
model_used: "Verwendetes Modell:"
accuracy: "Genauigkeit:"
embeddings:
semantic_search: "Themen (semantisch)"
semantic_search_loading: "Suche mehr Ergebnisse mithilfe der KI"
semantic_search_disabled_sort: "Die KI-Suche ist für diese Sortierreihenfolge deaktiviert. Sortiere nach Relevanz, um sie zu aktivieren."
semantic_search_results:
toggle: "%{count} Ergebnisse, die mit KI gefunden wurden, werden angezeigt"
toggle_hidden: "%{count} mit KI gefundene Ergebnisse werden ausgeblendet"
none: "Entschuldigung, unsere KI-Suche hat keine passenden Themen gefunden."
new: "Drücke auf „Suchen“, um mit der KI nach neuen Ergebnissen zu suchen"
ai_generated_result: "Suchergebnis mit KI gefunden"
quick_search:
suffix: "in allen Themen und Beiträgen mit KI"
ai_bot:
pm_warning: "KI-Chatbot-Nachrichten werden regelmäßig von Moderatoren überwacht."
cancel_streaming: "Antwort abbrechen"
default_pm_prefix: "[KI-Bot-PN ohne Titel]"
shortcut_title: "Starte eine PN mit einem KI-Bot"
share: "KI-Unterhaltung teilen"
conversation_shared: "Unterhaltung kopiert"
debug_ai: "Rohdaten der KI-Anfrage und -Antwort anzeigen"
debug_ai_modal:
title: "KI-Interaktion ansehen"
copy_request: "Anfrage kopieren"
copy_response: "Antwort kopieren"
request_tokens: "Token anfordern:"
response_tokens: "Antwort-Token:"
share_full_topic_modal:
title: "Gespräch öffentlich teilen"
share: "Link teilen und kopieren"
update: "Link aktualisieren und kopieren"
delete: "Freigabe löschen"
share_ai_conversation:
name: "KI-Unterhaltung teilen"
title: "Diese KI-Unterhaltung öffentlich teilen"
ai_label: "KI"
ai_title: "Unterhaltung mit KI"
share_modal:
title: "KI-Unterhaltung kopieren"
copy: "Kopieren"
context: "Interaktionen zum Teilen:"
share_tip: Alternativ kannst du auch die gesamte Unterhaltung teilen.
bot_names:
fake: "Fake Test Bot"
claude-3-opus: "Claude 3 Opus"
claude-3-sonnet: "Claude 3 Sonett"
claude-3-haiku: "Claude 3 Haiku"
cohere-command-r-plus: "Cohere Befehl R Plus"
gpt-4: "GPT-4"
gpt-4-turbo: "GPT-4 Turbo"
gpt-3:
5-turbo: "GPT-3.5"
claude-2: "Claude 2"
gemini-1:
5-pro: "Gemini"
mixtral-8x7B-Instruct-V0:
"1": "Mixtral-8x7B V0.1"
sentiments:
dashboard:
title: "Stimmung"
review:
types:
reviewable_ai_post:
title: "KI-gemeldeter Beitrag"
reviewable_ai_chat_message:
title: "KI-gemeldete Chat-Nachricht"