319 lines
15 KiB
YAML
319 lines
15 KiB
YAML
# WARNING: Never edit this file.
|
||
# It will be overwritten when translations are pulled from Crowdin.
|
||
#
|
||
# To work with us on translations, join this project:
|
||
# https://translate.discourse.org/
|
||
|
||
fr:
|
||
admin_js:
|
||
admin:
|
||
site_settings:
|
||
categories:
|
||
discourse_ai: "Discourse AI"
|
||
js:
|
||
discourse_automation:
|
||
scriptables:
|
||
llm_report:
|
||
fields:
|
||
sender:
|
||
label: "Expéditeur"
|
||
description: "L'utilisateur qui enverra le rapport"
|
||
receivers:
|
||
label: "Récepteurs"
|
||
description: "Les utilisateurs qui recevront le rapport (les e-mails seront envoyés directement par e-mail, les noms d'utilisateur seront envoyés par MP)"
|
||
topic_id:
|
||
label: "ID du sujet"
|
||
title:
|
||
label: "Titre"
|
||
description: "Le titre du rapport"
|
||
days:
|
||
label: "Jours"
|
||
description: "La durée du rapport"
|
||
offset:
|
||
label: "Décalage"
|
||
description: "Lors des tests, vous souhaiterez peut-être exécuter le rapport de manière historique, utilisez le décalage pour démarrer le rapport à une date antérieure."
|
||
instructions:
|
||
label: "Instructions"
|
||
description: "Les instructions fournies au modèle de langage"
|
||
sample_size:
|
||
label: "Taille de l'échantillon"
|
||
description: "Le nombre de publications à échantillonner pour le rapport"
|
||
tokens_per_post:
|
||
label: "Jetons par publication"
|
||
model:
|
||
label: "Modèle"
|
||
description: "LLM à utiliser pour la génération de rapports"
|
||
categories:
|
||
label: "Catégories"
|
||
description: "Filtrer les sujets uniquement selon ces catégories"
|
||
tags:
|
||
label: "Étiquettes"
|
||
description: "Filtrer les sujets uniquement selon ces étiquettes"
|
||
exclude_tags:
|
||
label: "Exclure les étiquettes"
|
||
description: "Exclure les sujets comportant ces étiquettes"
|
||
exclude_categories:
|
||
label: "Exclure les catégories"
|
||
description: "Exclure les sujets comportant ces catégories"
|
||
allow_secure_categories:
|
||
label: "Autoriser les catégories sécurisées"
|
||
description: "Autoriser la génération du rapport pour les sujets classés dans des catégories sécurisées"
|
||
suppress_notifications:
|
||
label: "Supprimer les notifications"
|
||
description: "Supprimez les notifications que le rapport peut générer en les transformant en contenu. Cela permettra de réorganiser les mentions et les liens internes."
|
||
debug_mode:
|
||
label: "Mode de débogage"
|
||
description: "Activez le mode de débogage pour voir les entrées et sorties brutes du LLM"
|
||
priority_group:
|
||
label: "Groupe prioritaire"
|
||
description: "Priorisez le contenu de ce groupe dans le rapport"
|
||
temperature:
|
||
label: "Température"
|
||
top_p:
|
||
label: "Top P"
|
||
description: "Top P à utiliser pour le LLM, augmentez pour augmenter le caractère aléatoire (0 pour utiliser la valeur par défaut du modèle)"
|
||
llm_triage:
|
||
fields:
|
||
system_prompt:
|
||
label: "Invite du système"
|
||
description: "L'invite qui sera utilisée pour le tri, assurez-vous qu'elle répond avec un seul mot que vous pouvez utiliser pour déclencher l'action"
|
||
search_for_text:
|
||
label: "Recherche de texte"
|
||
category:
|
||
label: "Catégorie"
|
||
description: "Catégorie à appliquer au sujet"
|
||
tags:
|
||
label: "Étiquettes"
|
||
description: "Étiquettes à appliquer au sujet"
|
||
canned_reply:
|
||
label: "Réponse"
|
||
canned_reply_user:
|
||
label: "Répondre à l'utilisateur"
|
||
description: "Nom d'utilisateur de l'utilisateur qui publiera la réponse prédéfinie"
|
||
hide_topic:
|
||
label: "Masquer le sujet"
|
||
model:
|
||
label: "Modèle"
|
||
description: "Modèle linguistique utilisé pour le tri"
|
||
discourse_ai:
|
||
title: "IA"
|
||
modals:
|
||
select_option: "Sélectionnez une option..."
|
||
ai_persona:
|
||
back: "Retour"
|
||
name: "Nom"
|
||
edit: "Modifier"
|
||
description: "Description"
|
||
no_llm_selected: "Aucun modèle linguistique sélectionné"
|
||
max_context_posts_help: "Le nombre maximal de publications à utiliser comme contexte pour l'IA lorsqu'elle répond à un utilisateur. (vide par défaut)"
|
||
vision_enabled: Vision activée
|
||
vision_enabled_help: Si cette option est activée, l'IA tentera de comprendre les images publiées par les utilisateurs dans le sujet, en fonction du modèle utilisé prenant en charge la vision. Pris en charge par les derniers modèles d'Anthropic, Google et OpenAI.
|
||
vision_max_pixels: Taille d'image prise en charge
|
||
tool_details_help: Affiche aux utilisateurs finaux des informations sur les outils que le modèle linguistique a déclenchés.
|
||
mentionable_help: Si cette option est activée, les utilisateurs des groupes autorisés peuvent mentionner cet utilisateur dans les publications, l'IA répondra en tant que personnage.
|
||
user: Utilisateur
|
||
create_user_help: Vous pouvez éventuellement associer un utilisateur à ce personnage. Si vous le faites, l'IA utilisera cet utilisateur pour répondre aux demandes.
|
||
default_llm_help: Le modèle linguistique par défaut à utiliser pour ce personnage. Obligatoire si vous souhaitez mentionner un personnage sur des publications publiques.
|
||
question_consolidator_llm: Modèle linguistique pour le consolidateur de questions
|
||
question_consolidator_llm_help: Le modèle linguistique à utiliser pour le consolidateur de questions, vous pouvez choisir un modèle moins puissant pour réduire les coûts.
|
||
save: "Enregistrer"
|
||
enabled: "Activé ?"
|
||
allowed_groups: "Groupes autorisés"
|
||
confirm_delete: "Voulez-vous vraiment supprimer ce personnage ?"
|
||
title: "Personnages"
|
||
short_title: "Personnages"
|
||
delete: "Supprimer"
|
||
temperature: "Température"
|
||
top_p: "Top P"
|
||
top_p_help: "Top P à utiliser pour le LLM, augmentez pour augmenter le caractère aléatoire (laissez vide pour utiliser la valeur par défaut du modèle, généralement une valeur comprise entre 0,0 et 1,0)"
|
||
priority: "Priorité"
|
||
priority_help: "Les personnages prioritaires sont affichés aux utilisateurs en haut de la liste des personnages. Si plusieurs personnages sont prioritaires, ils seront triés par ordre alphabétique."
|
||
rag_conversation_chunks_help: "Le nombre de segments à utiliser pour les recherches de modèles RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser."
|
||
rag:
|
||
options:
|
||
rag_chunk_tokens_help: "Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser. (la modification indexera à nouveau tous les téléversements)"
|
||
rag_chunk_overlap_tokens_help: "Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (la modification indexera à nouveau tous les téléversements)"
|
||
uploads:
|
||
title: "Fichiers envoyés"
|
||
filter: "Filtrer les téléversements"
|
||
indexed: "Indexé"
|
||
indexing: "Indexation"
|
||
uploaded: "Prêt à être indexé"
|
||
uploading: "Envoi en cours…"
|
||
remove: "Supprimer le téléversement"
|
||
tools:
|
||
back: "Retour"
|
||
short_title: "Outils"
|
||
name: "Nom"
|
||
name_help: "Le nom unique de l'outil tel qu'utilisé par le modèle linguistique"
|
||
description: "Description"
|
||
description_help: "Une description claire de l'objectif de l'outil pour le modèle linguistique"
|
||
summary: "Résumé"
|
||
summary_help: "Résumé des outils destinés à être affichés aux utilisateurs finaux"
|
||
script: "Script"
|
||
parameters: "Paramètres"
|
||
save: "Enregistrer"
|
||
add_parameter: "Ajouter un paramètre"
|
||
parameter_required: "Requis"
|
||
parameter_enum: "Énumération"
|
||
enum_value: "Valeur d'énumération"
|
||
add_enum_value: "Ajouter une valeur d'énumération"
|
||
edit: "Modifier"
|
||
delete: "Supprimer"
|
||
saved: "Outil enregistré"
|
||
presets: "Sélectionnez un préréglage..."
|
||
confirm_delete: "Voulez-vous vraiment supprimer cet outil ?"
|
||
next:
|
||
title: "Suivant"
|
||
llms:
|
||
short_title: "LLM"
|
||
no_llms: "Pas encore de LLM"
|
||
display_name: "Nom"
|
||
tokenizer: "Tokéniseur"
|
||
max_prompt_tokens: "Nombre de jetons pour l'invite"
|
||
url: "URL du service hébergeant le modèle"
|
||
api_key: "Clé API du service hébergeant le modèle"
|
||
vision_enabled: "Vision activée"
|
||
save: "Enregistrer"
|
||
edit: "Modifier"
|
||
back: "Retour"
|
||
confirm_delete: Voulez-vous vraiment supprimer ce modèle ?
|
||
delete: Supprimer
|
||
usage:
|
||
ai_summarization: "Résumer"
|
||
preconfigured_llms: "Sélectionnez votre LLM"
|
||
next:
|
||
title: "Suivant"
|
||
tests:
|
||
running: "Exécution du test..."
|
||
success: "Succès !"
|
||
failure: "La tentative de contact avec le modèle a renvoyé cette erreur : %{error}"
|
||
hints:
|
||
max_prompt_tokens: "Nombre maximal de jetons pour l'invite. En règle générale, cela devrait représenter 50 % de la fenêtre contextuelle du modèle."
|
||
vision_enabled: "Si cette option est activée, l'IA tentera de comprendre les images. Cela dépend du modèle utilisé prenant en charge la vision. Pris en charge par les derniers modèles d'Anthropic, Google et OpenAI."
|
||
providers:
|
||
aws_bedrock: "AWS Bedrock"
|
||
anthropic: "Anthropic"
|
||
vllm: "vLLM"
|
||
hugging_face: "Hugging Face"
|
||
cohere: "Cohere"
|
||
open_ai: "OpenAI"
|
||
google: "Google"
|
||
azure: "Azure"
|
||
ollama: "Ollama"
|
||
fake: "Personnalisé"
|
||
related_topics:
|
||
pill: "Lié"
|
||
ai_helper:
|
||
title: "Suggérer des modifications à l'aide de l'IA"
|
||
description: "Choisissez l'une des options ci-dessous et l'IA vous proposera une nouvelle version du texte."
|
||
selection_hint: "Conseil : vous pouvez également sélectionner une partie du texte avant d'ouvrir l'assistant pour ne réécrire que cette partie."
|
||
suggest: "Suggérer avec l'IA"
|
||
missing_content: "Veuillez saisir du contenu pour générer des suggestions."
|
||
context_menu:
|
||
trigger: "Demander à l'IA"
|
||
loading: "L'IA est en train de générer"
|
||
cancel: "Annuler"
|
||
regen: "Réessayer"
|
||
confirm: "Confirmer"
|
||
discard: "Abandonner"
|
||
custom_prompt:
|
||
placeholder: "Saisissez une invite personnalisée..."
|
||
translate_prompt: "Traduire en %{language}"
|
||
post_options_menu:
|
||
trigger: "Demander à l'IA"
|
||
title: "Demander à l'IA"
|
||
loading: "L'IA est en train de générer"
|
||
close: "Fermer"
|
||
copy: "Copier"
|
||
copied: "Copié !"
|
||
cancel: "Annuler"
|
||
insert_footnote: "Ajouter une note de bas de page"
|
||
footnote_credits: "Explication par l'IA"
|
||
thumbnail_suggestions:
|
||
select: "Sélectionner"
|
||
selected: "Sélectionné"
|
||
image_caption:
|
||
button_label: "Légende avec IA"
|
||
generating: "Génération de la légende..."
|
||
credits: "Légende par l'IA"
|
||
save_caption: "Enregistrer"
|
||
automatic_caption_loading: "Ajout des légendes des images..."
|
||
automatic_caption_dialog:
|
||
confirm: "Activer"
|
||
cancel: "Ne plus demander"
|
||
reviewables:
|
||
model_used: "Modèle utilisé :"
|
||
accuracy: "Précision :"
|
||
embeddings:
|
||
semantic_search: "Sujets (sémantiques)"
|
||
semantic_search_loading: "Rechercher plus de résultats à l'aide de l'IA"
|
||
semantic_search_results:
|
||
toggle: "Affichage de %{count} résultats trouvés en utilisant l'IA"
|
||
toggle_hidden: "Masquer %{count} résultats trouvés à l’aide de l'IA"
|
||
none: "Nous sommes désolés, notre recherche par IA n'a trouvé aucun sujet correspondant"
|
||
ai_generated_result: "Résultat de recherche trouvé à l'aide de l'IA"
|
||
quick_search:
|
||
suffix: "dans tous les sujets et publications avec IA"
|
||
ai_bot:
|
||
pm_warning: "Les messages du chatbot IA sont surveillés régulièrement par les modérateurs."
|
||
cancel_streaming: "Arrêter de répondre"
|
||
default_pm_prefix: "[Message privé de robot IA sans titre]"
|
||
shortcut_title: "Démarrer une conversation avec un robot IA"
|
||
share: "Copier la conversation avec l'IA"
|
||
conversation_shared: "Conversation copiée"
|
||
debug_ai: "Afficher la demande et la réponse brutes de l'IA"
|
||
debug_ai_modal:
|
||
title: "Afficher l'interaction avec l'IA"
|
||
copy_request: "Copier la demande"
|
||
copy_response: "Copier la réponse"
|
||
request_tokens: "Jetons de demande :"
|
||
response_tokens: "Jetons de réponse :"
|
||
request: "Requête"
|
||
response: "Réponse"
|
||
next_log: "Suivant"
|
||
previous_log: "Précédent"
|
||
share_ai_conversation:
|
||
name: "Partager une conversation IA"
|
||
title: "Partager publiquement cette conversation avec l'IA"
|
||
ai_label: "IA"
|
||
ai_title: "Conversation avec l'IA"
|
||
share_modal:
|
||
title: "Copier la conversation avec l'IA"
|
||
copy: "Copie"
|
||
context: "Interactions à partager :"
|
||
share_tip: "Vous pouvez également partager l'intégralité de la conversation"
|
||
bot_names:
|
||
fake: "Faux robot de test"
|
||
claude-3-opus: "Claude 3 Opus"
|
||
claude-3-sonnet: "Claude 3 Sonnet"
|
||
claude-3-haiku: "Claude 3 Haiku"
|
||
cohere-command-r-plus: "Cohere Command R Plus"
|
||
gpt-4: "GPT-4"
|
||
gpt-4-turbo: "GPT-4 Turbo"
|
||
gpt-4o: "GPT-4 Omni"
|
||
gpt-3:
|
||
5-turbo: "GPT-3.5"
|
||
claude-2: "Claude 2"
|
||
gemini-1:
|
||
5-pro: "Gemini"
|
||
mixtral-8x7B-Instruct-V0:
|
||
"1": "Mixtral-8x7B V0.1"
|
||
sentiments:
|
||
dashboard:
|
||
title: "Sentiment"
|
||
summarization:
|
||
chat:
|
||
title: "Résumer les messages"
|
||
description: "Sélectionnez une option ci-dessous pour résumer la conversation envoyée pendant la période souhaitée."
|
||
summarize: "Résumer"
|
||
since:
|
||
one: "Dernière heure"
|
||
other: "%{count} dernières heures"
|
||
review:
|
||
types:
|
||
reviewable_ai_post:
|
||
title: "Publication signalée par l'IA"
|
||
reviewable_ai_chat_message:
|
||
title: "Message de conversation signalé par l'IA"
|