discourse-ai/config/locales/client.nl.yml

387 lines
19 KiB
YAML

# WARNING: Never edit this file.
# It will be overwritten when translations are pulled from Crowdin.
#
# To work with us on translations, join this project:
# https://translate.discourse.org/
nl:
admin_js:
admin:
site_settings:
categories:
discourse_ai: "Discourse AI"
js:
discourse_automation:
scriptables:
llm_report:
fields:
sender:
label: "Afzender"
description: "De gebruiker die het rapport verzendt"
receivers:
label: "Ontvangers"
description: "De gebruikers die het rapport ontvangen (e-mails worden rechtstreeks verzonden, gebruikersnamen ontvangen een PB)"
topic_id:
label: "Topic-ID"
description: "De ID van het topic waarin het rapport moet worden geplaatst"
title:
label: "Titel"
description: "De titel van het rapport"
days:
label: "Dagen"
description: "Het tijdsbestek van het rapport"
offset:
label: "Offset"
description: "Bij het testen wil je het rapport wellicht historisch uitvoeren. Gebruik offset om het rapport op een eerdere datum te starten"
instructions:
label: "Instructies"
description: "De instructies voor het grote taalmodel"
sample_size:
label: "Monstergrootte"
description: "Het aantal berichten om te gebruiken voor het rapport"
tokens_per_post:
label: "Tokens per bericht"
description: "Het aantal LLM-tokens dat per bericht moet worden gebruikt"
model:
label: "Model"
description: "Te gebruiken LLM voor het genereren van het rapport"
categories:
label: "Categorieën"
description: "Filter topics alleen op deze categorieën"
tags:
label: "Tags"
description: "Filter topics alleen op deze tags"
exclude_tags:
label: "Tags uitsluiten"
description: "Sluit topics met deze tags uit"
exclude_categories:
label: "Categorieën uitsluiten"
description: "Sluit topics met deze categorieën uit"
allow_secure_categories:
label: "Beveiligde categorieën toestaan"
description: "Sta toe dat het rapport wordt gegenereerd voor topics in beveiligde categorieën"
suppress_notifications:
label: "Meldingen onderdrukken"
description: "Onderdruk meldingen die het rapport kan genereren door ze om te zetten in inhoud. Hierdoor worden vermeldingen en interne links opnieuw toegewezen."
debug_mode:
label: "Foutopsporingsmodus"
description: "Schakel de foutopsporingsmodus in om de onbewerkte in- en uitvoer van het LLM te bekijken"
priority_group:
label: "Prioriteitsgroep"
description: "Geef prioriteit aan content van deze groep in het rapport"
temperature:
label: "Temperatuur"
description: "Te gebruiken temperatuur voor de LLM. Verhoog deze om de willekeur te vergroten (0 om de standaardinstelling van het model te gebruiken)"
top_p:
label: "Top P"
description: "Te gebruiken Top P voor de LLM. Verhoog deze om de willekeur te vergroten (0 om de standaardinstelling van het model te gebruiken)"
llm_triage:
fields:
system_prompt:
label: "Systeemprompt"
description: "De prompt die wordt gebruikt voor triage. Antwoord met een enkel woord dat kan worden gebruikt om de actie te activeren"
search_for_text:
label: "Tekst zoeken"
description: "Pas deze acties toe als de volgende tekst voorkomt in het LLM-antwoord"
category:
label: "Categorie"
description: "Toe te passen categorie op het topic"
tags:
label: "Tags"
description: "Toe te passen tags op het topic"
canned_reply:
label: "Antwoorden"
description: "Ruwe tekst van standaard antwoord te plaatsen in het topic"
canned_reply_user:
label: "Antwoordgebruiker"
description: "Gebruikersnaam van de gebruiker die het standaardantwoord plaatst"
hide_topic:
label: "Topic verbergen"
description: "Maak het topic onzichtbaar voor het publiek als dit wordt geactiveerd"
model:
label: "Model"
description: "Taalmodel gebruikt voor triage"
discourse_ai:
title: "AI"
modals:
select_option: "Selecteer een optie..."
ai_persona:
back: Vorige
name: Naam
edit: Bewerken
description: Beschrijving
no_llm_selected: "Geen taalmodel geselecteerd"
max_context_posts: "Max. contextberichten"
max_context_posts_help: "Het maximale aantal berichten dat als context voor de AI kan worden gebruikt bij het reageren op een gebruiker. (Leeg voor standaardinstelling)"
vision_enabled: Zicht ingeschakeld
vision_enabled_help: Indien ingeschakeld, zal de AI proberen afbeeldingen te begrijpen die gebruikers in het topic plaatsen, afhankelijk van het gebruikte model ter ondersteuning van zicht. Ondersteund door de nieuwste modellen van Anthropic, Google en OpenAI.
vision_max_pixels: Ondersteunde afbeeldingsgrootte
vision_max_pixel_sizes:
low: Lage kwaliteit - goedkoopst (256x256)
medium: Middelmatige kwaliteit (512x512)
high: Hoge kwaliteit - langzaamst (1024x1024)
tool_details: Tooldetails weergeven
tool_details_help: Toont eindgebruikers informatie over welke tools het taalmodel heeft geactiveerd.
mentionable: Vermeldingen toestaan
mentionable_help: Indien ingeschakeld, kunnen gebruikers in toegestane groepen deze gebruiker vermelden in berichten. De AI reageert als deze persona.
user: Gebruiker
create_user: Gebruiker maken
create_user_help: Je kunt optioneel een gebruiker aan deze persona koppelen. Als je dat doet, gebruikt de AI deze gebruiker om op verzoeken te antwoorden.
default_llm: Standaard taalmodel
default_llm_help: Het standaard taalmodel dat voor deze persona moet worden gebruikt. Vereist als je de persona wilt vermelden in openbare berichten.
question_consolidator_llm: Taalmodel voor Vragenconsolidator
question_consolidator_llm_help: Het te gebruiken taalmodel voor de vragenconsolidator. Je kunt een minder krachtig model kiezen om kosten te besparen.
system_prompt: Systeemprompt
allow_chat: "Chat toestaan"
allow_chat_help: "Indien ingeschakeld, kunnen gebruikers in toegestane groepen deze persona een direct bericht sturen"
save: Opslaan
saved: AI-persona opgeslagen
enabled: "Ingeschakeld?"
tools: Ingeschakelde tools
allowed_groups: Toegestane groepen
confirm_delete: Weet je zeker dat je deze persona wilt verwijderen?
new: "Nieuwe persona"
title: "AI-persona's"
short_title: "Persona's"
delete: Verwijderen
temperature: Temperatuur
temperature_help: Te gebruiken temperatuur voor de LLM. Verhoog deze om de creativiteit te vergroten (laat dit leeg om de standaardinstelling van het model te gebruiken, doorgaans een waarde van 0,0 tot 2,0)
top_p: Top P
top_p_help: Te gebruiken Top P voor de LLM. Verhoog deze om de willekeurigheid te vergroten (laat dit leeg om de standaardinstelling van het model te gebruiken, doorgaans een waarde van 0,0 tot 2,0)
priority: Prioriteit
priority_help: Prioritaire persona's worden bovenaan de personalijst weergegeven voor gebruikers. Als meerdere persona's prioriteit hebben, worden deze alfabetisch gesorteerd.
tool_options: "Toolopties"
rag_conversation_chunks: "Conversatiechunks zoeken"
rag_conversation_chunks_help: "Het te gebruiken aantal chunks voor zoeken door het RAG-model. Verhoog dit om de hoeveelheid context te vergroten die de AI kan gebruiken."
what_are_personas: "Wat zijn AI-persona's?"
no_persona_selected: |
AI-persona's zijn een krachtige functie waarmee je het gedrag van de AI-engine van je Discourse-forum kunt aanpassen. Ze fungeren als een 'systeemboodschap' die de reacties en interacties van de AI aanstuurt, waardoor je een persoonlijkere en boeiendere gebruikerservaring creëert.
#### Waarom AI-persona's gebruiken?
Met AI-persona's kun je het gedrag van de AI beter afstemmen op de context en toon van je forum. Of je nu wilt dat de AI formeler is voor een professionele omgeving, informeler voor een communityforum of zelfs een specifiek personage belichaamt voor een rollenspel, AI-persona' geven je de flexibiliteit om dit te doen.
#### Groepsspecifieke toegang tot AI-persona's
Bovendien kun je het zo instellen dat bepaalde gebruikersgroepen toegang hebben tot specifieke persona's. Dit betekent dat je verschillende AI-gedragingen kunt hebben voor verschillende secties van je forum, waardoor de diversiteit en rijkdom van de interacties in je community verder toeneemt.
rag:
options:
rag_chunk_tokens: "Uploadchunktokens"
rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
rag_chunk_overlap_tokens: "Uploadchunkoverlaptokens"
rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
show_indexing_options: "Uploadopties weergeven"
hide_indexing_options: "Uploadopties verbergen"
uploads:
title: "Uploads"
button: "Bestanden toevoegen"
filter: "Uploads filteren"
indexed: "Geïndexeerd"
indexing: "Indexeren"
uploaded: "Klaar om te indexeren"
uploading: "Uploaden..."
remove: "Upload verwijderen"
tools:
back: "Vorige"
short_title: "Tools"
new: "Nieuwe tool"
name: "Naam"
name_help: "De unieke naam van de tool zoals gebruikt door het taalmodel"
description: "Beschrijving"
description_help: "Een duidelijke beschrijving van het doel van de tool voor het taalmodel"
summary: "Samenvatting"
summary_help: "Samenvatting van de tools die voor eindgebruikers moeten worden weergegeven"
script: "Script"
parameters: "Parameters"
save: "Opslaan"
add_parameter: "Parameter toevoegen"
parameter_required: "Vereist"
parameter_enum: "Enum"
parameter_name: "Parameternaam"
parameter_description: "Parameterbeschrijving"
enum_value: "Enumwaarde"
add_enum_value: "Enumwaarde toevoegen"
edit: "Bewerken"
test: "Test uitvoeren"
delete: "Verwijderen"
saved: "Tool opgeslagen"
presets: "Selecteer een preset..."
confirm_delete: Weet je zeker dat je deze tool wilt verwijderen?
next:
title: "Volgende"
test_modal:
title: "AI-tool testen"
run: "Test uitvoeren"
result: "Testresultaat"
llms:
short_title: "LLM's"
no_llms: "Nog geen LLM's"
new: "Nieuw model"
display_name: "Naam"
tokenizer: "Tokenizer"
max_prompt_tokens: "Aantal tokens voor de prompt"
url: "URL van de service die het model host"
api_key: "API-sleutel van de service die het model host"
enabled_chat_bot: "AI-bot toestaan"
vision_enabled: "Zicht ingeschakeld"
ai_bot_user: "Gebruiker AI-bot"
save: "Opslaan"
edit: "Bewerken"
saved: "LLM-model opgeslagen"
back: "Vorige"
confirm_delete: Weet je zeker dat je dit model wilt verwijderen?
delete: Verwijderen
preconfigured_llms: "Selecteer je LLM"
next:
title: "Volgende"
tests:
title: "Test uitvoeren"
running: "Test uitvoeren..."
success: "Succes!"
failure: "Een poging om verbinding te maken met het model resulteerde in deze fout: %{error}"
hints:
max_prompt_tokens: "Maximaal aantal tokens voor de prompt. Als vuistregel zou dit 50% van het contextvenster van het model moeten zijn."
name: "We nemen dit op in de API-aanroep om aan te geven welk model we gebruiken."
vision_enabled: "Indien ingeschakeld, zal de AI proberen afbeeldingen te begrijpen. Dit is afhankelijk van het gebruikte model ter ondersteuning van zicht. Ondersteund door de nieuwste modellen van Anthropic, Google en OpenAI."
providers:
aws_bedrock: "AWS Bedrock"
anthropic: "Anthropic"
vllm: "vLLM"
hugging_face: "Hugging Face"
cohere: "Cohere"
open_ai: "OpenAI"
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Aangepast"
provider_fields:
access_key_id: "Toegangssleutel-ID AWS Bedrock"
region: "Regio AWS Bedrock"
organization: "Optionele organisatie-ID OpenAI"
related_topics:
title: "Gerelateerde topics"
pill: "Gerelateerd"
ai_helper:
title: "Stel wijzigingen voor met behulp van AI"
description: "Kies een van de onderstaande opties, dan zal de AI je een nieuwe versie van de tekst voorstellen."
selection_hint: "Tip: je kunt ook een deel van de tekst selecteren voordat je de hulp opent om alleen dat deel te herschrijven."
suggest: "Voorstellen met AI"
missing_content: "Voer wat inhoud in om suggesties te genereren."
context_menu:
trigger: "AI vragen"
loading: "AI is aan het genereren"
cancel: "Annuleren"
regen: "Opnieuw proberen"
confirm: "Bevestigen"
discard: "Weggooien"
custom_prompt:
title: "Aangepaste prompt"
placeholder: "Voer een aangepaste prompt in..."
submit: "Prompt verzenden"
translate_prompt: "Vertalen naar %{language}"
post_options_menu:
trigger: "AI vragen"
title: "AI vragen"
loading: "AI is aan het genereren"
close: "Sluiten"
copy: "Kopiëren"
copied: "Gekopieerd!"
cancel: "Annuleren"
insert_footnote: "Voetnoot toevoegen"
footnote_credits: "Uitleg door AI"
fast_edit:
suggest_button: "Bewerking voorstellen"
thumbnail_suggestions:
title: "Voorgestelde miniaturen"
select: "Selecteren"
selected: "Geselecteerd"
image_caption:
button_label: "Bijschrift met AI"
generating: "Bijschrift genereren..."
credits: "Bijschrift door AI"
save_caption: "Opslaan"
automatic_caption_setting: "Automatische AI-afbeeldingsbijschriften inschakelen"
automatic_caption_loading: "Afbeeldingsbijschriften genereren..."
automatic_caption_dialog:
prompt: "Dit bericht bevat afbeeldingen zonder bijschrift. Wil je automatische AI-bijschriften inschakelen bij het uploaden van afbeeldingen? (Je kunt dit later wijzigen in je voorkeuren)"
confirm: "Inschakelen"
cancel: "Niet meer vragen"
reviewables:
model_used: "Gebruikt model:"
accuracy: "Nauwkeurigheid:"
embeddings:
semantic_search: "Topics (semantisch)"
semantic_search_loading: "Zoeken naar meer resultaten met behulp van AI"
semantic_search_results:
toggle: "%{count} resultaten gevonden met AI worden weergegeven"
toggle_hidden: "%{count} resultaten gevonden met AI zijn verborgen"
none: "Sorry, AI zoeken heeft geen overeenkomende topics gevonden."
new: "Druk op 'Zoeken' om nieuwe resultaten te zoeken met AI"
ai_generated_result: "Zoekresultaat gevonden met AI"
quick_search:
suffix: "in alle topics en berichten met AI"
ai_bot:
pm_warning: "AI-chatbotberichten worden regelmatig gecontroleerd door moderators."
cancel_streaming: "Stoppen met antwoorden"
default_pm_prefix: "[Ongetitelde PB van AI-bot]"
shortcut_title: "Start een PB met een AI-bot"
share: "AI-conversatie kopiëren"
conversation_shared: "Conversatie gekopieerd"
debug_ai: "Ruw AI-verzoek en -antwoord weergeven"
debug_ai_modal:
title: "AI-interactie weergeven"
copy_request: "Verzoek kopiëren"
copy_response: "Antwoord kopiëren"
request_tokens: "Verzoektokens:"
response_tokens: "Antwoordtokens:"
request: "Verzoek"
response: "Antwoord"
share_full_topic_modal:
title: "Conversatie openbaar delen"
share: "Link delen en kopiëren"
update: "Link bijwerken en kopiëren"
delete: "Deling verwijderen"
share_ai_conversation:
name: "AI-conversatie delen"
title: "Deel deze AI-conversatie openbaar"
ai_label: "AI"
ai_title: "Conversatie met AI"
share_modal:
title: "AI-conversatie kopiëren"
copy: "Kopiëren"
context: "Te delen interacties:"
share_tip: Je kunt ook de hele conversatie delen.
bot_names:
fake: "Neppe testbot"
claude-3-opus: "Claude 3 Opus"
claude-3-sonnet: "Claude 3 Sonnet"
claude-3-haiku: "Claude 3 Haiku"
cohere-command-r-plus: "Cohere Command R Plus"
gpt-4: "GPT-4"
gpt-4-turbo: "GPT-4 Turbo"
gpt-4o: "GPT-4 Omni"
gpt-3:
5-turbo: "GPT-3.5"
claude-2: "Claude 2"
gemini-1:
5-pro: "Gemini"
mixtral-8x7B-Instruct-V0:
"1": "Mixtral-8x7B V0.1"
sentiments:
dashboard:
title: "Sentiment"
summarization:
chat:
title: "Berichten samenvatten"
description: "Selecteer hieronder een optie om het gesprek samen te vatten dat tijdens de gewenste periode is gevoerd."
summarize: "Samenvatten"
since:
one: "Afgelopen uur"
other: "Afgelopen %{count} uur"
review:
types:
reviewable_ai_post:
title: "Door AI gemarkeerd bericht"
reviewable_ai_chat_message:
title: "Door AI gemarkeerd chatbericht"