discourse-ai/config/locales/client.nl.yml

319 lines
14 KiB
YAML

# WARNING: Never edit this file.
# It will be overwritten when translations are pulled from Crowdin.
#
# To work with us on translations, join this project:
# https://translate.discourse.org/
nl:
admin_js:
admin:
site_settings:
categories:
discourse_ai: "Discourse AI"
js:
discourse_automation:
scriptables:
llm_report:
fields:
sender:
label: "Afzender"
description: "De gebruiker die het rapport verzendt"
receivers:
label: "Ontvangers"
description: "De gebruikers die het rapport ontvangen (e-mails worden rechtstreeks verzonden, gebruikersnamen ontvangen een PB)"
topic_id:
label: "Topic-ID"
title:
label: "Titel"
description: "De titel van het rapport"
days:
label: "Dagen"
description: "Het tijdsbestek van het rapport"
offset:
label: "Offset"
description: "Bij het testen wil je het rapport wellicht historisch uitvoeren. Gebruik offset om het rapport op een eerdere datum te starten"
instructions:
label: "Instructies"
description: "De instructies voor het grote taalmodel"
sample_size:
label: "Monstergrootte"
description: "Het aantal berichten om te gebruiken voor het rapport"
tokens_per_post:
label: "Tokens per bericht"
model:
label: "Model"
description: "Te gebruiken LLM voor het genereren van het rapport"
categories:
label: "Categorieën"
description: "Filter topics alleen op deze categorieën"
tags:
label: "Tags"
description: "Filter topics alleen op deze tags"
exclude_tags:
label: "Tags uitsluiten"
description: "Sluit topics met deze tags uit"
exclude_categories:
label: "Categorieën uitsluiten"
description: "Sluit topics met deze categorieën uit"
allow_secure_categories:
label: "Beveiligde categorieën toestaan"
description: "Sta toe dat het rapport wordt gegenereerd voor topics in beveiligde categorieën"
suppress_notifications:
label: "Meldingen onderdrukken"
description: "Onderdruk meldingen die het rapport kan genereren door ze om te zetten in inhoud. Hierdoor worden vermeldingen en interne links opnieuw toegewezen."
debug_mode:
label: "Foutopsporingsmodus"
description: "Schakel de foutopsporingsmodus in om de onbewerkte in- en uitvoer van het LLM te bekijken"
priority_group:
label: "Prioriteitsgroep"
description: "Geef prioriteit aan content van deze groep in het rapport"
temperature:
label: "Temperatuur"
top_p:
label: "Top P"
description: "Te gebruiken Top P voor de LLM. Verhoog deze om de willekeur te vergroten (0 om de standaardinstelling van het model te gebruiken)"
llm_triage:
fields:
system_prompt:
label: "Systeemprompt"
description: "De prompt die wordt gebruikt voor triage. Antwoord met een enkel woord dat kan worden gebruikt om de actie te activeren"
search_for_text:
label: "Tekst zoeken"
category:
label: "Categorie"
description: "Toe te passen categorie op het topic"
tags:
label: "Tags"
description: "Toe te passen tags op het topic"
canned_reply:
label: "Antwoorden"
canned_reply_user:
label: "Antwoordgebruiker"
description: "Gebruikersnaam van de gebruiker die het standaardantwoord plaatst"
hide_topic:
label: "Topic verbergen"
model:
label: "Model"
description: "Taalmodel gebruikt voor triage"
discourse_ai:
title: "AI"
modals:
select_option: "Selecteer een optie..."
ai_persona:
back: "Vorige"
name: "Naam"
edit: "Bewerken"
description: "Beschrijving"
no_llm_selected: "Geen taalmodel geselecteerd"
max_context_posts_help: "Het maximale aantal berichten dat als context voor de AI kan worden gebruikt bij het reageren op een gebruiker. (Leeg voor standaardinstelling)"
vision_enabled: Zicht ingeschakeld
vision_enabled_help: Indien ingeschakeld, zal de AI proberen afbeeldingen te begrijpen die gebruikers in het topic plaatsen, afhankelijk van het gebruikte model ter ondersteuning van zicht. Ondersteund door de nieuwste modellen van Anthropic, Google en OpenAI.
vision_max_pixels: Ondersteunde afbeeldingsgrootte
tool_details_help: Toont eindgebruikers informatie over welke tools het taalmodel heeft geactiveerd.
mentionable_help: Indien ingeschakeld, kunnen gebruikers in toegestane groepen deze gebruiker vermelden in berichten. De AI reageert als deze persona.
user: Gebruiker
create_user_help: Je kunt optioneel een gebruiker aan deze persona koppelen. Als je dat doet, gebruikt de AI deze gebruiker om op verzoeken te antwoorden.
default_llm_help: Het standaard taalmodel dat voor deze persona moet worden gebruikt. Vereist als je de persona wilt vermelden in openbare berichten.
question_consolidator_llm: Taalmodel voor Vragenconsolidator
question_consolidator_llm_help: Het te gebruiken taalmodel voor de vragenconsolidator. Je kunt een minder krachtig model kiezen om kosten te besparen.
save: "Opslaan"
enabled: "Ingeschakeld?"
allowed_groups: "Toegestane groepen"
confirm_delete: "Weet je zeker dat je deze persona wilt verwijderen?"
title: "Persona's"
short_title: "Persona's"
delete: "Verwijderen"
temperature: "Temperatuur"
top_p: "Top P"
top_p_help: "Te gebruiken Top P voor de LLM. Verhoog deze om de willekeurigheid te vergroten (laat dit leeg om de standaardinstelling van het model te gebruiken, doorgaans een waarde van 0,0 tot 2,0)"
priority: "Prioriteit"
priority_help: "Prioritaire persona's worden bovenaan de personalijst weergegeven voor gebruikers. Als meerdere persona's prioriteit hebben, worden deze alfabetisch gesorteerd."
rag_conversation_chunks_help: "Het te gebruiken aantal chunks voor zoeken door het RAG-model. Verhoog dit om de hoeveelheid context te vergroten die de AI kan gebruiken."
rag:
options:
rag_chunk_tokens_help: "Het te gebruiken aantal tokens voor elke chunk in het RAG-model. Verhoog dit om de hoeveelheid context die de AI kan gebruiken te vergroten. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
rag_chunk_overlap_tokens_help: "Het te overlappen aantal tokens tussen chunks in het RAG-model. (Als je dit wijzigt, worden alle uploads opnieuw geïndexeerd)"
uploads:
title: "Uploads"
filter: "Uploads filteren"
indexed: "Geïndexeerd"
indexing: "Indexeren"
uploaded: "Klaar om te indexeren"
uploading: "Uploaden..."
remove: "Upload verwijderen"
tools:
back: "Vorige"
short_title: "Tools"
name: "Naam"
name_help: "De unieke naam van de tool zoals gebruikt door het taalmodel"
description: "Beschrijving"
description_help: "Een duidelijke beschrijving van het doel van de tool voor het taalmodel"
summary: "Samenvatting"
summary_help: "Samenvatting van de tools die voor eindgebruikers moeten worden weergegeven"
script: "Script"
parameters: "Parameters"
save: "Opslaan"
add_parameter: "Parameter toevoegen"
parameter_required: "Vereist"
parameter_enum: "Enum"
enum_value: "Enumwaarde"
add_enum_value: "Enumwaarde toevoegen"
edit: "Bewerken"
delete: "Verwijderen"
saved: "Tool opgeslagen"
presets: "Selecteer een preset..."
confirm_delete: "Weet je zeker dat je deze tool wilt verwijderen?"
next:
title: "Volgende"
llms:
short_title: "LLM's"
no_llms: "Nog geen LLM's"
display_name: "Naam"
tokenizer: "Tokenizer"
max_prompt_tokens: "Aantal tokens voor de prompt"
url: "URL van de service die het model host"
api_key: "API-sleutel van de service die het model host"
vision_enabled: "Zicht ingeschakeld"
save: "Opslaan"
edit: "Bewerken"
back: "Vorige"
confirm_delete: Weet je zeker dat je dit model wilt verwijderen?
delete: Verwijderen
usage:
ai_summarization: "Samenvatten"
preconfigured_llms: "Selecteer je LLM"
next:
title: "Volgende"
tests:
running: "Test uitvoeren..."
success: "Succes!"
failure: "Een poging om verbinding te maken met het model resulteerde in deze fout: %{error}"
hints:
max_prompt_tokens: "Maximaal aantal tokens voor de prompt. Als vuistregel zou dit 50% van het contextvenster van het model moeten zijn."
vision_enabled: "Indien ingeschakeld, zal de AI proberen afbeeldingen te begrijpen. Dit is afhankelijk van het gebruikte model ter ondersteuning van zicht. Ondersteund door de nieuwste modellen van Anthropic, Google en OpenAI."
providers:
aws_bedrock: "AWS Bedrock"
anthropic: "Anthropic"
vllm: "vLLM"
hugging_face: "Hugging Face"
cohere: "Cohere"
open_ai: "OpenAI"
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Aangepast"
related_topics:
pill: "Gerelateerd"
ai_helper:
title: "Stel wijzigingen voor met behulp van AI"
description: "Kies een van de onderstaande opties, dan zal de AI je een nieuwe versie van de tekst voorstellen."
selection_hint: "Tip: je kunt ook een deel van de tekst selecteren voordat je de hulp opent om alleen dat deel te herschrijven."
suggest: "Voorstellen met AI"
missing_content: "Voer wat inhoud in om suggesties te genereren."
context_menu:
trigger: "AI vragen"
loading: "AI is aan het genereren"
cancel: "Annuleren"
regen: "Opnieuw proberen"
confirm: "Bevestigen"
discard: "Weggooien"
custom_prompt:
placeholder: "Voer een aangepaste prompt in..."
translate_prompt: "Vertalen naar %{language}"
post_options_menu:
trigger: "AI vragen"
title: "AI vragen"
loading: "AI is aan het genereren"
close: "Sluiten"
copy: "Kopiëren"
copied: "Gekopieerd!"
cancel: "Annuleren"
insert_footnote: "Voetnoot toevoegen"
footnote_credits: "Uitleg door AI"
thumbnail_suggestions:
select: "Selecteren"
selected: "Geselecteerd"
image_caption:
button_label: "Bijschrift met AI"
generating: "Bijschrift genereren..."
credits: "Bijschrift door AI"
save_caption: "Opslaan"
automatic_caption_loading: "Afbeeldingsbijschriften genereren..."
automatic_caption_dialog:
confirm: "Inschakelen"
cancel: "Niet meer vragen"
reviewables:
model_used: "Gebruikt model:"
accuracy: "Nauwkeurigheid:"
embeddings:
semantic_search: "Topics (semantisch)"
semantic_search_loading: "Zoeken naar meer resultaten met behulp van AI"
semantic_search_results:
toggle: "%{count} resultaten gevonden met AI worden weergegeven"
toggle_hidden: "%{count} resultaten gevonden met AI zijn verborgen"
none: "Sorry, AI zoeken heeft geen overeenkomende topics gevonden"
ai_generated_result: "Zoekresultaat gevonden met AI"
quick_search:
suffix: "in alle topics en berichten met AI"
ai_bot:
pm_warning: "AI-chatbotberichten worden regelmatig gecontroleerd door moderators."
cancel_streaming: "Stoppen met antwoorden"
default_pm_prefix: "[Ongetitelde PB van AI-bot]"
shortcut_title: "Start een PB met een AI-bot"
share: "AI-conversatie kopiëren"
conversation_shared: "Conversatie gekopieerd"
debug_ai: "Ruw AI-verzoek en -antwoord weergeven"
debug_ai_modal:
title: "AI-interactie weergeven"
copy_request: "Verzoek kopiëren"
copy_response: "Antwoord kopiëren"
request_tokens: "Verzoektokens:"
response_tokens: "Antwoordtokens:"
request: "Verzoek"
response: "Antwoord"
next_log: "Volgende"
previous_log: "Vorige"
share_ai_conversation:
name: "AI-conversatie delen"
title: "Deel deze AI-conversatie openbaar"
ai_label: "AI"
ai_title: "Conversatie met AI"
share_modal:
title: "AI-conversatie kopiëren"
copy: "Kopiëren"
context: "Te delen interacties:"
share_tip: "Je kunt ook de hele conversatie delen"
bot_names:
fake: "Neppe testbot"
claude-3-opus: "Claude 3 Opus"
claude-3-sonnet: "Claude 3 Sonnet"
claude-3-haiku: "Claude 3 Haiku"
cohere-command-r-plus: "Cohere Command R Plus"
gpt-4: "GPT-4"
gpt-4-turbo: "GPT-4 Turbo"
gpt-4o: "GPT-4 Omni"
gpt-3:
5-turbo: "GPT-3.5"
claude-2: "Claude 2"
gemini-1:
5-pro: "Gemini"
mixtral-8x7B-Instruct-V0:
"1": "Mixtral-8x7B V0.1"
sentiments:
dashboard:
title: "Sentiment"
summarization:
chat:
title: "Berichten samenvatten"
description: "Selecteer hieronder een optie om het gesprek samen te vatten dat tijdens de gewenste periode is gevoerd."
summarize: "Samenvatten"
since:
one: "Afgelopen uur"
other: "Afgelopen %{count} uur"
review:
types:
reviewable_ai_post:
title: "Door AI gemarkeerd bericht"
reviewable_ai_chat_message:
title: "Door AI gemarkeerd chatbericht"