503 lines
26 KiB
YAML
503 lines
26 KiB
YAML
# WARNING: Never edit this file.
|
||
# It will be overwritten when translations are pulled from Crowdin.
|
||
#
|
||
# To work with us on translations, join this project:
|
||
# https://translate.discourse.org/
|
||
|
||
de:
|
||
admin_js:
|
||
admin:
|
||
api:
|
||
scopes:
|
||
descriptions:
|
||
discourse_ai:
|
||
search: "Ermöglicht KI-Suche"
|
||
stream_completion: "Ermöglicht das Streamen von KI-Persona-Vervollständigungen"
|
||
site_settings:
|
||
categories:
|
||
discourse_ai: "Discourse-KI"
|
||
dashboard:
|
||
emotion:
|
||
title: "Emotion"
|
||
description: "Die Tabelle listet die Anzahl der Beiträge auf, die mit einer bestimmten Emotion klassifiziert wurden. Klassifiziert mit dem Modell „SamLowe/roberta-base-go_emotions“."
|
||
js:
|
||
discourse_automation:
|
||
scriptables:
|
||
llm_report:
|
||
fields:
|
||
sender:
|
||
label: "Absender"
|
||
description: "Der Benutzer, der den Bericht senden wird"
|
||
receivers:
|
||
label: "Empfänger"
|
||
description: "Die Benutzer, die den Bericht erhalten sollen (an E-Mail-Adressen wird eine E-Mail verschickt, Benutzernamen erhalten eine PN)"
|
||
topic_id:
|
||
label: "Themen-ID"
|
||
description: "Die Themen-ID für die Veröffentlichung des Berichts"
|
||
title:
|
||
label: "Titel"
|
||
description: "Der Titel des Berichts"
|
||
days:
|
||
label: "Tage"
|
||
description: "Die Zeitspanne des Berichts"
|
||
offset:
|
||
label: "Offset"
|
||
description: "Wenn du den Bericht zu Testzwecken in der Vergangenheit ausführen möchtest, kannst du den Bericht mit einem Offset zu einem früheren Zeitpunkt starten."
|
||
instructions:
|
||
label: "Anweisungen"
|
||
description: "Die Anweisungen für das große Sprachmodell"
|
||
sample_size:
|
||
label: "Stichprobengröße"
|
||
description: "Die Anzahl der Beiträge, die für den Bericht ausgewählt werden sollen"
|
||
tokens_per_post:
|
||
label: "Token pro Beitrag"
|
||
description: "Die Anzahl der pro Beitrag zu verwendenden LLM-Token"
|
||
model:
|
||
label: "Modell"
|
||
description: "LLM zur Berichtserstellung"
|
||
categories:
|
||
label: "Kategorien"
|
||
description: "Themen nur nach diesen Kategorien filtern"
|
||
tags:
|
||
label: "Schlagwörter"
|
||
description: "Themen nur nach diesen Schlagwörtern filtern"
|
||
exclude_tags:
|
||
label: "Schlagwörter ausschließen"
|
||
description: "Themen mit diesen Schlagwörtern ausschließen"
|
||
exclude_categories:
|
||
label: "Kategorien ausschließen"
|
||
description: "Themen mit diesen Kategorien ausschließen"
|
||
allow_secure_categories:
|
||
label: "Sichere Kategorien zulassen"
|
||
description: "Erlaube, dass der Bericht für Themen in sicheren Kategorien erstellt wird"
|
||
suppress_notifications:
|
||
label: "Benachrichtigungen unterdrücken"
|
||
description: "Unterdrücke Benachrichtigungen, die der Bericht durch die Umwandlung in Inhalt erzeugen kann. Dadurch werden Erwähnungen und interne Links umgewandelt."
|
||
debug_mode:
|
||
label: "Debug-Modus"
|
||
description: "Aktiviere den Debug-Modus, um die Roheingabe und -ausgabe des LLM anzuzeigen"
|
||
priority_group:
|
||
label: "Prioritätsgruppe"
|
||
description: "Inhalte aus dieser Gruppe im Bericht hervorheben"
|
||
temperature:
|
||
label: "Temperatur"
|
||
description: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Zufälligkeit zu steigern (0, um den Standard des Modells zu verwenden)"
|
||
top_p:
|
||
label: "Top P"
|
||
description: "Top P für das LLM. Erhöhen, um die Zufälligkeit zu steigern (0, um den Standard des Modells zu verwenden)"
|
||
llm_triage:
|
||
fields:
|
||
system_prompt:
|
||
label: "System-Eingabeaufforderung"
|
||
description: "Die Eingabeaufforderung, die für die Triage verwendet wird. Achte darauf, dass sie mit einem einzigen Wort antwortet, das du zum Auslösen der Aktion verwenden kannst"
|
||
max_post_tokens:
|
||
label: "Max. Beitrags-Token"
|
||
description: "Die maximale Anzahl von Token, die mit LLM-Triage gescannt werden"
|
||
stop_sequences:
|
||
label: "Sequenzen stoppen"
|
||
description: "Weise das Modell an, die Token-Generierung anzuhalten, wenn einer dieser Werte erreicht wird"
|
||
search_for_text:
|
||
label: "Suche nach Text"
|
||
description: "Wenn der folgende Text in der LLM-Antwort erscheint, wende diese Maßnahmen an"
|
||
category:
|
||
label: "Kategorie"
|
||
description: "Kategorie, die auf das Thema anzuwenden ist"
|
||
tags:
|
||
label: "Schlagwörter"
|
||
description: "Schlagwörter, die auf das Thema anzuwenden sind"
|
||
canned_reply:
|
||
label: "Antworten"
|
||
description: "Rohtext der vorgefertigten Antwort auf einen Beitrag zum Thema"
|
||
canned_reply_user:
|
||
label: "Antwortender Benutzer"
|
||
description: "Benutzername des Benutzers, der die vorgefertigte Antwort posten soll"
|
||
hide_topic:
|
||
label: "Thema ausblenden"
|
||
description: "Thema nicht für die Öffentlichkeit sichtbar machen, wenn ausgelöst"
|
||
flag_type:
|
||
label: "Meldungs-Typ"
|
||
description: "Art der Meldung, die auf den Beitrag angewendet werden soll (Spam oder einfach zur Überprüfung anzeigen)"
|
||
flag_post:
|
||
label: "Beitrag melden"
|
||
description: "Meldet den Beitrag (entweder als Spam oder zur Überprüfung)"
|
||
include_personal_messages:
|
||
label: "Persönliche Nachrichten einbeziehen"
|
||
description: "Auch persönliche Nachrichten scannen und sortieren"
|
||
model:
|
||
label: "Modell"
|
||
description: "Für die Triage verwendetes Sprachmodell"
|
||
discourse_ai:
|
||
title: "KI"
|
||
modals:
|
||
select_option: "Wähle eine Option aus..."
|
||
usage:
|
||
short_title: "Verwendung"
|
||
summary: "Zusammenfassung"
|
||
total_tokens: "Token gesamt"
|
||
tokens_over_time: "Token im Laufe der Zeit"
|
||
features_breakdown: "Nutzung pro Funktion"
|
||
feature: "Funktion"
|
||
usage_count: "Nutzungsanzahl"
|
||
model: "Modell"
|
||
models_breakdown: "Nutzung pro Modell"
|
||
users_breakdown: "Nutzung pro Benutzer"
|
||
all_features: "Alle Funktionen"
|
||
all_models: "Alle Modelle"
|
||
username: "Benutzername"
|
||
total_requests: "Gesamte Anfragen"
|
||
request_tokens: "Anfrage-Token"
|
||
response_tokens: "Antwort-Token"
|
||
cached_tokens: "Zwischengespeicherte Token"
|
||
ai_persona:
|
||
tool_strategies:
|
||
all: "Auf alle Antworten anwenden"
|
||
replies:
|
||
one: "Nur auf die erste Antwort anwenden"
|
||
other: "Auf die ersten %{count} Antworten anwenden"
|
||
back: "Zurück"
|
||
name: "Name"
|
||
edit: "Bearbeiten"
|
||
description: "Beschreibung"
|
||
no_llm_selected: "Kein Sprachmodell ausgewählt"
|
||
max_context_posts: "Max. Kontext-Beiträge"
|
||
max_context_posts_help: "Die maximale Anzahl von Beiträgen, die die KI als Kontext für die Antwort auf einen Nutzer verwenden soll (leer für Standardwert)."
|
||
vision_enabled: Sehen aktiviert
|
||
vision_enabled_help: Wenn diese Funktion aktiviert ist, versucht die KI, die Bilder zu verstehen, die Nutzer im Thema posten (abhängig davon, ob das verwendete Modell Sehen unterstützt). Unterstützt von den neuesten Modellen von Anthropic, Google und OpenAI.
|
||
vision_max_pixels: Unterstützte Bildgröße
|
||
vision_max_pixel_sizes:
|
||
low: Niedrige Qualität – am günstigsten (256 x 256)
|
||
medium: Mittlere Qualität (512 x 512)
|
||
high: Hohe Qualität – am langsamsten (1024 x 1024)
|
||
tool_details: Tool-Details anzeigen
|
||
tool_details_help: Zeigt den Endnutzern Details darüber, welche Tools das Sprachmodell ausgelöst hat.
|
||
mentionable: Erwähnungen zulassen
|
||
mentionable_help: Wenn diese Funktion aktiviert ist, können Nutzer in erlaubten Gruppen diesen Nutzer in Beiträgen erwähnen und die KI wird als diese Persona antworten.
|
||
user: Nutzer
|
||
create_user: Benutzer erstellen
|
||
create_user_help: Du kannst dieser Persona optional einen Nutzer zuordnen. Wenn du das tust, wird die KI diesen Nutzer verwenden, um auf Anfragen zu antworten.
|
||
default_llm: Standard-Sprachmodell
|
||
default_llm_help: Das Standard-Sprachmodell, das für diese Persona verwendet werden soll. Erforderlich, wenn du die Persona in öffentlichen Beiträgen erwähnen möchtest.
|
||
question_consolidator_llm: Sprachmodell für Fragenkonsolidierer
|
||
question_consolidator_llm_help: Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen.
|
||
system_prompt: System-Eingabeaufforderung
|
||
forced_tool_strategy: Erzwungene Tool-Strategie
|
||
allow_chat_direct_messages: "Chat-Direktnachrichten zulassen"
|
||
allow_chat_direct_messages_help: "Wenn aktiviert, können Benutzer in zulässigen Gruppen Direktnachrichten an diese Person senden."
|
||
allow_chat_channel_mentions: "Chat-Kanal-Erwähnungen zulassen"
|
||
allow_chat_channel_mentions_help: "Wenn aktiviert, können Benutzer in zulässigen Gruppen diese Persona in Chatkanälen erwähnen."
|
||
allow_personal_messages: "Persönliche Nachrichten zulassen"
|
||
allow_personal_messages_help: "Wenn aktiviert, können Benutzer in zulässigen Gruppen persönliche Nachrichten an diese Persona senden."
|
||
allow_topic_mentions: "Themenerwähnungen zulassen"
|
||
allow_topic_mentions_help: "Wenn aktiviert, können Benutzer in zulässigen Gruppen diese Persona in Themen erwähnen."
|
||
force_default_llm: "Immer das Standard-Sprachmodell verwenden"
|
||
save: "Speichern"
|
||
saved: "Persona gespeichert"
|
||
enabled: "Aktiviert?"
|
||
tools: "Aktivierte Tools"
|
||
forced_tools: "Erzwungene Tools"
|
||
allowed_groups: "Zulässige Gruppen"
|
||
confirm_delete: "Bist du sicher, dass du diese Persona löschen willst?"
|
||
new: "Neue Persona"
|
||
no_personas: "Du hast noch keine Personas erstellt"
|
||
title: "Personas"
|
||
short_title: "Personas"
|
||
delete: "Löschen"
|
||
temperature: "Temperatur"
|
||
temperature_help: "Temperatur, die für das LLM verwendet werden soll. Erhöhen, um die Kreativität zu steigern (leer lassen, um den Standardwert des Modells zu verwenden, im Allgemeinen ein Wert zwischen 0,0 und 2,0)"
|
||
top_p: "Top P"
|
||
top_p_help: "Top P für das LLM. Erhöhen, um die Zufälligkeit zu steigern (leer lassen, um den Standardwert des Modells zu verwenden, in der Regel ein Wert zwischen 0,0 und 1,0)"
|
||
priority: "Priorität"
|
||
priority_help: "Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert."
|
||
tool_options: "Tool-Optionen"
|
||
rag_conversation_chunks: "Unterhaltungs-Chunks durchsuchen"
|
||
rag_conversation_chunks_help: "Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann."
|
||
persona_description: "Personas sind eine leistungsstarke Funktion, mit der du das Verhalten der KI-Engine in deinem Discourse-Forum anpassen kannst. Sie fungieren als „Systemnachricht“, welche die Antworten und Interaktionen der KI steuert und dazu beiträgt, ein persönlicheres und ansprechenderes Erlebnis für Benutzer zu schaffen."
|
||
rag:
|
||
options:
|
||
rag_chunk_tokens: "Chunk-Token hochladen"
|
||
rag_chunk_tokens_help: "Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu steigern, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
|
||
rag_chunk_overlap_tokens: "Chunk-Überlappungs-Token hochladen"
|
||
rag_chunk_overlap_tokens_help: "Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (Eine Änderung führt zu einer Neuindizierung aller Uploads.)"
|
||
show_indexing_options: "Upload-Optionen anzeigen"
|
||
hide_indexing_options: "Upload-Optionen ausblenden"
|
||
uploads:
|
||
title: "Uploads"
|
||
description: "Hochgeladene Dateien sollten als Klartext (.txt) oder Markdown (.md) formatiert sein."
|
||
button: "Dateien hinzufügen"
|
||
filter: "Uploads filtern"
|
||
indexed: "Indiziert"
|
||
indexing: "Indizierung"
|
||
uploaded: "Bereit zur Indizierung"
|
||
uploading: "Wird hochgeladen …"
|
||
remove: "Upload entfernen"
|
||
tools:
|
||
back: "Zurück"
|
||
short_title: "Tools"
|
||
no_tools: "Du hast noch keine Tools erstellt"
|
||
name: "Name"
|
||
subheader_description: "Tools erweitern die Fähigkeiten von KI-Bots mit benutzerdefinierten JavaScript-Funktionen."
|
||
new: "Neues Tool"
|
||
name_help: "Der eindeutige Name des Tools (wie vom Sprachmodell verwendet)"
|
||
description: "Beschreibung"
|
||
description_help: "Eine klare Beschreibung des Zwecks des Tools für das Sprachmodell"
|
||
summary: "Zusammenfassung"
|
||
summary_help: "Zusammenfassung des Zwecks der Tools, die den Endnutzern angezeigt werden soll"
|
||
script: "Skript"
|
||
parameters: "Parameter"
|
||
save: "Speichern"
|
||
add_parameter: "Parameter hinzufügen"
|
||
parameter_required: "Erforderlich"
|
||
parameter_enum: "Aufzählung"
|
||
parameter_name: "Parametername"
|
||
parameter_description: "Parameterbeschreibung"
|
||
enum_value: "Aufzählungswert"
|
||
add_enum_value: "Aufzählungswert hinzufügen"
|
||
edit: "Bearbeiten"
|
||
test: "Test ausführen"
|
||
delete: "Löschen"
|
||
saved: "Tool gespeichert"
|
||
presets: "Wähle eine Voreinstellung aus …"
|
||
confirm_delete: "Bist du sicher, dass du dieses Tool löschen willst?"
|
||
next:
|
||
title: "Nächstes"
|
||
test_modal:
|
||
title: "KI-Tool testen"
|
||
run: "Test ausführen"
|
||
result: "Testergebnis"
|
||
llms:
|
||
short_title: "LLM"
|
||
no_llms: "Noch keine LLM"
|
||
new: "Neues Modell"
|
||
display_name: "Name"
|
||
name: "Modell-ID"
|
||
provider: "Anbieter"
|
||
tokenizer: "Tokenizer"
|
||
max_prompt_tokens: "Anzahl der Token für die Eingabeaufforderung"
|
||
url: "URL des Dienstes, der das Modell hostet"
|
||
api_key: "API-Schlüssel des Dienstes, der das Modell hostet"
|
||
enabled_chat_bot: "KI-Bot-Auswahl zulassen"
|
||
vision_enabled: "Sehen aktiviert"
|
||
ai_bot_user: "KI-Bot-Benutzer"
|
||
save: "Speichern"
|
||
edit: "Bearbeiten"
|
||
saved: "LLM-Modell gespeichert"
|
||
back: "Zurück"
|
||
confirm_delete: Bist du sicher, dass du dieses Modell löschen willst?
|
||
delete: Löschen
|
||
seeded_warning: "Dieses Modell ist auf deiner Website vorkonfiguriert und kann nicht bearbeitet werden."
|
||
usage:
|
||
ai_bot: "KI-Bot"
|
||
ai_helper: "Helfer"
|
||
ai_persona: "Persona (%{persona})"
|
||
ai_summarization: "Zusammenfassen"
|
||
ai_embeddings_semantic_search: "KI-Suche"
|
||
in_use_warning:
|
||
one: "Dieses Modell wird derzeit von %{settings} verwendet. Wenn es falsch konfiguriert ist, wird die Funktion nicht wie erwartet funktionieren."
|
||
other: "Dieses Modell wird derzeit verwendet von: %{settings}. Wenn es falsch konfiguriert ist, werden die Funktionen nicht wie erwartet funktionieren. "
|
||
model_description:
|
||
none: "Allgemeine Einstellungen, die für die meisten Sprachmodelle funktionieren"
|
||
anthropic-claude-3-5-sonnet: "Das intelligenteste Modell von Anthropic"
|
||
anthropic-claude-3-5-haiku: "Schnell und kosteneffizient"
|
||
anthropic-claude-3-opus: "Hervorragend im Schreiben und bei komplexen Aufgaben"
|
||
google-gemini-1-5-pro: "Multimodales Modell mittlerer Größe, das eine Vielzahl von Aufgaben bewältigen kann"
|
||
google-gemini-1-5-flash: "Leicht, schnell und kosteneffizient mit multimodaler Argumentation"
|
||
open_ai-gpt-4-turbo: "Hochintelligentes Modell der vorherigen Generation"
|
||
open_ai-gpt-4o: "Hochintelligentes Modell für komplexe, mehrstufige Aufgaben"
|
||
open_ai-gpt-4o-mini: "Erschwingliches und schnelles kleines Modell für leichte Aufgaben"
|
||
open_ai-o1-mini: "Kosteneffizientes Argumentationsmodell"
|
||
open_ai-o1-preview: "Das leistungsfähigste Argumentationsmodell von Open AI"
|
||
samba_nova-Meta-Llama-3-1-8B-Instruct: "Effizientes leichtgewichtiges mehrsprachiges Modell"
|
||
samba_nova-Meta-Llama-3-1-70B-Instruct": "Leistungsstarkes Mehrzweckmodell"
|
||
mistral-mistral-large-latest: "Das leistungsstärkste Modell von Mistral"
|
||
mistral-pixtral-large-latest: "Das leistungsstärkste Modell von Mistral mit Sichtfunktion"
|
||
configured:
|
||
title: "Konfigurierte LLMs"
|
||
preconfigured_llms: "Wähle dein LLM"
|
||
preconfigured:
|
||
title_no_llms: "Wähle eine Vorlage aus, um loszulegen"
|
||
title: "Unkonfigurierte LLM-Vorlagen"
|
||
description: "LLMs (Large Language Models) sind KI-Tools, die für Aufgaben wie die Zusammenfassung von Inhalten, die Erstellung von Berichten, die Automatisierung von Kundeninteraktionen und die Erleichterung der Forenmoderation und -einsicht optimiert sind."
|
||
fake: "Manuelle Konfiguration"
|
||
button: "Einrichten"
|
||
next:
|
||
title: "Nächstes"
|
||
tests:
|
||
title: "Test ausführen"
|
||
running: "Test wird aufgeführt …"
|
||
success: "Erfolg!"
|
||
failure: "Beim Versuch, das Modell zu kontaktieren, wurde dieser Fehler zurückgegeben: %{error}"
|
||
hints:
|
||
max_prompt_tokens: "Maximale Anzahl von Token für die Eingabeaufforderung. Als Faustregel gilt, dass dies 50 % des Kontextfensters des Modells sein sollten."
|
||
name: "Wir fügen dies in den API-Aufruf ein, um anzugeben, welches Modell wir verwenden werden"
|
||
vision_enabled: "Wenn diese Funktion aktiviert ist, versucht die KI, Bilder zu verstehen. Dafür wird ein Modell benötigt, das Sehen unterstützt. Verfügbar in den neuesten Modellen von Anthropic, Google und OpenAI."
|
||
enabled_chat_bot: "Wenn diese Option aktiviert ist, können Benutzer dieses Modell auswählen, wenn sie PN mit dem KI-Bot erstellen"
|
||
providers:
|
||
aws_bedrock: "AWS Bedrock"
|
||
anthropic: "Anthropic"
|
||
vllm: "vLLM"
|
||
hugging_face: "Hugging Face"
|
||
cohere: "Cohere"
|
||
open_ai: "OpenAI"
|
||
google: "Google"
|
||
azure: "Azure"
|
||
ollama: "Ollama"
|
||
CDCK: "CDCK"
|
||
samba_nova: "SambaNova"
|
||
mistral: "Mistral"
|
||
fake: "Benutzerdefiniert"
|
||
provider_fields:
|
||
access_key_id: "AWS-Bedrock-Zugangsschlüssel-ID"
|
||
region: "AWS-Bedrock-Region"
|
||
organization: "Optionale OpenAI-Organisations-ID"
|
||
disable_system_prompt: "Systemmeldung in Eingabeaufforderungen deaktivieren"
|
||
enable_native_tool: "Aktiviere native Tool-Unterstützung"
|
||
disable_native_tools: "Native Tool-Unterstützung deaktivieren (XML-basierte Tools verwenden)"
|
||
related_topics:
|
||
title: "Verwandte Themen"
|
||
pill: "Verwandt"
|
||
ai_helper:
|
||
title: "Änderungen mit KI vorschlagen"
|
||
description: "Wähle eine der folgenden Optionen und die KI schlägt dir eine neue Version des Textes vor."
|
||
selection_hint: "Tipp: Du kannst auch einen Teil des Textes auswählen, bevor du den Assistenten öffnest, um nur diesen Teil neu zu schreiben."
|
||
suggest: "Mit KI vorschlagen"
|
||
suggest_errors:
|
||
too_many_tags:
|
||
one: "Du kannst höchstens %{count} Schlagwort haben."
|
||
other: "Du kannst höchstens %{count} Schlagwörter haben."
|
||
no_suggestions: "Keine Vorschläge verfügbar"
|
||
missing_content: "Bitte gib einige Inhalte ein, um Vorschläge zu generieren."
|
||
context_menu:
|
||
trigger: "KI fragen"
|
||
loading: "KI generiert"
|
||
cancel: "Abbrechen"
|
||
regen: "Erneut versuchen"
|
||
confirm: "Bestätigen"
|
||
discard: "Verwerfen"
|
||
changes: "Empfohlene Änderungen"
|
||
custom_prompt:
|
||
title: "Benutzerdefinierte Eingabeaufforderung"
|
||
placeholder: "Benutzerdefinierte Eingabeaufforderung …"
|
||
submit: "Aufforderung senden"
|
||
translate_prompt: "Übersetzen in %{language}"
|
||
post_options_menu:
|
||
trigger: "KI fragen"
|
||
title: "KI fragen"
|
||
loading: "KI generiert"
|
||
close: "Schließen"
|
||
copy: "Kopieren"
|
||
copied: "Kopiert!"
|
||
cancel: "Abbrechen"
|
||
insert_footnote: "Fußnote hinzufügen"
|
||
footnote_disabled: "Automatisches Einfügen deaktiviert. Klicke auf die Schaltfläche „Kopieren“ und bearbeite es manuell."
|
||
footnote_credits: "Erklärung durch KI"
|
||
fast_edit:
|
||
suggest_button: "Bearbeitung vorschlagen"
|
||
thumbnail_suggestions:
|
||
title: "Vorgeschlagene Miniaturansichten"
|
||
select: "Auswählen"
|
||
selected: "Ausgewählt"
|
||
image_caption:
|
||
button_label: "Beschriftung mit KI"
|
||
generating: "Beschriftung wird generiert …"
|
||
credits: "Beschriftet durch KI"
|
||
save_caption: "Speichern"
|
||
automatic_caption_setting: "Automatische Beschriftung einschalten"
|
||
automatic_caption_loading: "Bilder werden beschriftet …"
|
||
automatic_caption_dialog:
|
||
prompt: "Dieser Beitrag enthält nicht beschriftete Bilder. Möchtest du automatische Beschriftungen für hochgeladene Bilder aktivieren? (Das kannst du später in deinen Einstellungen ändern.)"
|
||
confirm: "Aktivieren"
|
||
cancel: "Nicht noch einmal fragen"
|
||
no_content_error: "Füge zuerst Inhalte hinzu, um KI-Aktionen darauf anzuwenden"
|
||
reviewables:
|
||
model_used: "Verwendetes Modell:"
|
||
accuracy: "Genauigkeit:"
|
||
embeddings:
|
||
semantic_search: "Themen (semantisch)"
|
||
semantic_search_loading: "Suche mehr Ergebnisse mithilfe der KI"
|
||
semantic_search_results:
|
||
toggle: "%{count} Ergebnisse, die mit KI gefunden wurden, werden angezeigt"
|
||
toggle_hidden: "%{count} mit KI gefundene Ergebnisse werden ausgeblendet"
|
||
none: "Entschuldigung, unsere KI-Suche hat keine passenden Themen gefunden"
|
||
new: "Drücke auf „Suchen“, um mit der KI nach neuen Ergebnissen zu suchen"
|
||
ai_generated_result: "Suchergebnis mit KI gefunden"
|
||
quick_search:
|
||
suffix: "in allen Themen und Beiträgen mit KI"
|
||
ai_artifact:
|
||
expand_view_label: "Ansicht erweitern"
|
||
collapse_view_label: "Vollbild beenden (ESC)"
|
||
click_to_run_label: "Artefakt ausführen"
|
||
ai_bot:
|
||
pm_warning: "KI-Chatbot-Nachrichten werden regelmäßig von Moderatoren überwacht."
|
||
cancel_streaming: "Antwort abbrechen"
|
||
default_pm_prefix: "[KI-Bot-PN ohne Titel]"
|
||
shortcut_title: "Starte eine PN mit einem KI-Bot"
|
||
share: "KI-Unterhaltung kopieren"
|
||
conversation_shared: "Unterhaltung kopiert"
|
||
debug_ai: "Rohdaten der KI-Anfrage und -Antwort anzeigen"
|
||
debug_ai_modal:
|
||
title: "KI-Interaktion ansehen"
|
||
copy_request: "Anfrage kopieren"
|
||
copy_response: "Antwort kopieren"
|
||
request_tokens: "Anfrage-Token:"
|
||
response_tokens: "Antwort-Token:"
|
||
request: "Anfrage"
|
||
response: "Antwort"
|
||
next_log: "Weiter"
|
||
previous_log: "Zurück"
|
||
share_full_topic_modal:
|
||
title: "Unterhaltung öffentlich teilen"
|
||
share: "Link teilen und kopieren"
|
||
update: "Link aktualisieren und kopieren"
|
||
delete: "Freigabe löschen"
|
||
share_ai_conversation:
|
||
name: "KI-Unterhaltung teilen"
|
||
title: "Diese KI-Unterhaltung öffentlich teilen"
|
||
ai_label: "KI"
|
||
ai_title: "Unterhaltung mit KI"
|
||
share_modal:
|
||
title: "KI-Unterhaltung kopieren"
|
||
copy: "Kopieren"
|
||
context: "Interaktionen zum Teilen:"
|
||
share_tip: "Alternativ kannst du auch die gesamte Unterhaltung teilen"
|
||
bot_names:
|
||
fake: "Fake-Test-Bot"
|
||
claude-3-opus: "Claude 3 Opus"
|
||
claude-3-sonnet: "Claude 3 Sonett"
|
||
claude-3-haiku: "Claude 3 Haiku"
|
||
cohere-command-r-plus: "Cohere Command R Plus"
|
||
gpt-4: "GPT-4"
|
||
gpt-4-turbo: "GPT-4 Turbo"
|
||
gpt-4o: "GPT-4 Omni"
|
||
gpt-3:
|
||
5-turbo: "GPT-3.5"
|
||
claude-2: "Claude 2"
|
||
gemini-1:
|
||
5-pro: "Gemini"
|
||
mixtral-8x7B-Instruct-V0:
|
||
"1": "Mixtral-8x7B V0.1"
|
||
sentiments:
|
||
dashboard:
|
||
title: "Stimmung"
|
||
summarization:
|
||
chat:
|
||
title: "Nachrichten zusammenfassen"
|
||
description: "Wähle unten eine Option aus, um die im gewünschten Zeitraum gesendete Unterhaltung zusammenzufassen."
|
||
summarize: "Zusammenfassen"
|
||
since:
|
||
one: "Letzte Stunde"
|
||
other: "Letzte %{count} Stunden"
|
||
topic:
|
||
title: "Zusammenfassung des Themas"
|
||
close: "Zusammenfassungspanel schließen"
|
||
topic_list_layout:
|
||
button:
|
||
compact: "Kompakt"
|
||
expanded: "Erweitert"
|
||
expanded_description: "mit KI-Zusammenfassungen"
|
||
review:
|
||
types:
|
||
reviewable_ai_post:
|
||
title: "KI-gemeldeter Beitrag"
|
||
reviewable_ai_chat_message:
|
||
title: "KI-gemeldete Chat-Nachricht"
|