description:"Wenn du den Bericht zu Testzwecken in der Vergangenheit ausführen möchtest, kannst du den Bericht mit einem Offset zu einem früheren Zeitpunkt starten."
instructions:
label:"Anweisungen"
description:"Die Anweisungen für das große Sprachmodell"
sample_size:
label:"Stichprobengröße"
description:"Die Anzahl der Beiträge, die für den Bericht ausgewählt werden sollen"
tokens_per_post:
label:"Token pro Beitrag"
description:"Die Anzahl der pro Beitrag zu verwendenden LLM-Token"
description:"Unterdrücke Benachrichtigungen, die der Bericht durch die Umwandlung in Inhalt erzeugen kann. Dadurch werden Erwähnungen und interne Links umgewandelt."
description:"Die Eingabeaufforderung, die für die Triage verwendet wird. Achte darauf, dass sie mit einem einzigen Wort antwortet, das du zum Auslösen der Aktion verwenden kannst"
search_for_text:
label:"Suche nach Text"
description:"Wenn der folgende Text in der LLM-Antwort erscheint, wende diese Maßnahmen an"
category:
label:"Kategorie"
description:"Kategorie, die auf das Thema anzuwenden ist"
max_context_posts_help:"Die maximale Anzahl von Beiträgen, die die KI als Kontext für die Antwort auf einen Nutzer verwenden soll. (leer für Standard)"
vision_enabled_help:Wenn diese Funktion aktiviert ist, versucht die KI, die Bilder zu verstehen, die die Benutzer in dem Thema posten, je nachdem, welches Modell das Sehen unterstützt. Anthropic Claude 3 Modelle unterstützen das Sehen.
mentionable_help:Wenn diese Funktion aktiviert ist, können Benutzer in erlaubten Gruppen diese Persona in Beiträgen erwähnen und die KI wird als diese Persona antworten.
create_user_help:Du kannst dieser Persona optional einen Benutzer zuordnen. Wenn du das tust, wird die KI diesen Benutzer verwenden, um auf Anfragen zu antworten.
default_llm:Standard-Sprachmodell
default_llm_help:Das Standard-Sprachmodell, das für diese Persona verwendet werden soll. Erforderlich, wenn du die Persona in öffentlichen Beiträgen erwähnen möchtest.
question_consolidator_llm:Sprachmodell für Fragenkonsolidierer
question_consolidator_llm_help:Das Sprachmodell, das für den Fragenkonsolidierer verwendet werden soll. Du kannst ein weniger leistungsfähiges Modell wählen, um Kosten zu sparen.
temperature_help:Temperatur, die für das LLM verwendet werden soll, erhöhen, um die Kreativität zu steigern (leer lassen, um den Standardwert des Modells zu verwenden, im Allgemeinen ein Wert zwischen 0,0 und 2,0)
top_p:Top P
top_p_help:Top P für die LLM, erhöhen, um die Zufälligkeit zu erhöhen (leer lassen, um die Modellvorgabe zu verwenden, in der Regel ein Wert zwischen 0,0 und 1,0)
priority_help:Personas mit Priorität werden den Benutzern am Anfang der Persona-Liste angezeigt. Wenn mehrere Personas Priorität haben, werden sie alphabetisch sortiert.
rag_chunk_tokens_help:"Die Anzahl der Token, die für jeden Chunk im RAG-Modell verwendet werden. Erhöhen, um die Menge des Kontexts zu erhöhen, den die KI verwenden kann. (Eine Änderung führt zu einer Neuindizierung aller Uploads)"
rag_chunk_overlap_tokens_help:"Die Anzahl der Token, die sich zwischen den Chunks im RAG-Modell überlappen sollen. (eine Änderung führt zu einer Neuindizierung aller Uploads)"
rag_conversation_chunks_help:"Die Anzahl der Chunks, die für die RAG-Modell-Suche verwendet werden. Erhöhen, um die Menge des Kontexts zu erhöhen, den die KI verwenden kann."
KI-Personas sind eine leistungsstarke Funktion, mit der Sie das Verhalten der KI-Engine in Ihrem Discourse-Forum anpassen können. Sie dienen als „Systembotschaft“, die die Reaktionen und Interaktionen der KI steuert und dazu beiträgt, ein persönlicheres und ansprechenderes Nutzererlebnis zu schaffen.
Mit KI-Personas kannst du das Verhalten der KI so anpassen, dass es besser zum Kontext und zum Ton deines Forums passt. Egal, ob du möchtest, dass die KI für ein professionelles Umfeld formeller, für ein Community-Forum lockerer ist oder sogar einen bestimmten Charakter für ein Rollenspiel verkörpert, KI-Personas bieten dir die nötige Flexibilität dafür.
Außerdem kannst du ihn so einrichten, dass bestimmte Benutzergruppen Zugriff auf bestimmte Personas haben. Das bedeutet, dass Sie für verschiedene Bereiche Ihres Forums unterschiedliche KI-Verhaltensweisen verwenden können, was die Vielfalt und den Reichtum der Interaktionen Ihrer Community weiter verbessert.
description:"Deine KI-Persona wird in der Lage sein, den Inhalt der enthaltenen Dateien zu durchsuchen und zu referenzieren. Hochgeladene Dateien sollten als Plaintext (.txt) oder Markdown (.md) formatiert sein."
max_prompt_tokens:"Maximale Anzahl von Token für die Eingabeaufforderung. Als Faustregel gilt, dass dies 50% des Kontextfensters des Modells sein sollte."
name:"Wir fügen dies in den API-Aufruf ein, um anzugeben, welches Modell wir verwenden werden."