description:"Le tableau répertorie le nombre de publications classées selon une émotion déterminée. Cette classification est réalisée avec le modèle «Samlowe/Roberta-Base-Go_Emotions»."
description:"L'utilisateur qui enverra le rapport"
receivers:
label:"Récepteurs"
description:"Les utilisateurs qui recevront le rapport (les e-mails seront envoyés directement par e-mail, les noms d'utilisateur seront envoyés par MP)"
description:"Lors des tests, vous souhaiterez peut-être exécuter le rapport de manière historique, utilisez le décalage pour démarrer le rapport à une date antérieure."
instructions:
label:"Instructions"
description:"Les instructions fournies au modèle de langage"
sample_size:
label:"Taille de l'échantillon"
description:"Le nombre de publications à échantillonner pour le rapport"
description:"Supprimez les notifications que le rapport peut générer en les transformant en contenu. Cela permettra de réorganiser les mentions et les liens internes."
description:"Température à utiliser pour le LLM. Augmentez la valeur pour augmenter le caractère aléatoire (0 pour utiliser la valeur par défaut du modèle)"
max_context_posts_help:"Le nombre maximal de publications à utiliser comme contexte pour l'IA lorsqu'elle répond à un utilisateur. (vide par défaut)"
vision_enabled:Vision activée
vision_enabled_help:Si cette option est activée, l'IA tentera de comprendre les images publiées par les utilisateurs dans le sujet, en fonction du modèle utilisé prenant en charge la vision. Pris en charge par les derniers modèles d'Anthropic, Google et OpenAI.
mentionable_help:Si cette option est activée, les utilisateurs des groupes autorisés peuvent mentionner cet utilisateur dans les publications, l'IA répondra en tant que personnage.
create_user_help:Vous pouvez éventuellement associer un utilisateur à ce personnage. Si vous le faites, l'IA utilisera cet utilisateur pour répondre aux demandes.
default_llm_help:Le modèle linguistique par défaut à utiliser pour ce personnage. Obligatoire si vous souhaitez mentionner un personnage sur des publications publiques.
question_consolidator_llm:Modèle linguistique pour le consolidateur de questions
question_consolidator_llm_help:Le modèle linguistique à utiliser pour le consolidateur de questions, vous pouvez choisir un modèle moins puissant pour réduire les coûts.
allow_chat_direct_messages:"Autoriser les messages directs de discussion"
allow_chat_direct_messages_help:"Si cette option est activée, les utilisateurs des groupes autorisés peuvent envoyer des messages directs à ce personnage."
allow_chat_channel_mentions:"Autoriser les mentions du canal de discussion"
allow_chat_channel_mentions_help:"Si cette option est activée, les utilisateurs des groupes autorisés peuvent mentionner ce personnage dans les canaux de discussion."
allow_personal_messages:"Autoriser les messages personnels"
allow_personal_messages_help:"Si cette option est activée, les utilisateurs des groupes autorisés peuvent envoyer des messages personnels à ce personnage."
allow_topic_mentions:"Autoriser les mentions de sujets"
allow_topic_mentions_help:"Si cette option est activée, les utilisateurs des groupes autorisés peuvent mentionner ce personnage dans les sujets."
force_default_llm:"Toujours utiliser le modèle linguistique par défaut"
temperature_help:"Température à utiliser pour le LLM. Augmentez la valeur pour augmenter la créativité (laissez le champ vide pour utiliser la valeur par défaut du modèle, généralement une valeur comprise entre 0,0 et 2,0)"
top_p_help:"Top P à utiliser pour le LLM, augmentez pour augmenter le caractère aléatoire (laissez vide pour utiliser la valeur par défaut du modèle, généralement une valeur comprise entre 0,0 et 1,0)"
priority:"Priorité"
priority_help:"Les personnages prioritaires sont affichés aux utilisateurs en haut de la liste des personnages. Si plusieurs personnages sont prioritaires, ils seront triés par ordre alphabétique."
rag_conversation_chunks_help:"Le nombre de segments à utiliser pour les recherches de modèles RAG. Augmentez pour augmenter la quantité de contexte que l'IA peut utiliser."
persona_description:"Les personnages sont une fonctionnalité puissante qui vous permet de personnaliser le comportement du moteur d'IA dans votre forum Discourse. Ils agissent comme un « message système » qui guide les réponses et les interactions de l'IA, en contribuant ainsi à créer une expérience utilisateur plus personnalisée et plus interactive."
rag_chunk_tokens:"Téléverser des jetons de morceaux"
rag_chunk_tokens_help:"Le nombre de jetons à utiliser pour chaque morceau du modèle RAG. Augmentez la valeur pour augmenter la quantité de contexte que l'IA peut utiliser. (La modification indexera à nouveau tous les téléversements)"
rag_chunk_overlap_tokens:"Téléverser des jetons de chevauchement de morceaux"
rag_chunk_overlap_tokens_help:"Le nombre de jetons à superposer entre les morceaux dans le modèle RAG. (La modification indexera à nouveau tous les téléversements)"
show_indexing_options:"Afficher les options de téléversement"
hide_indexing_options:"Masquer les options de téléversement"
one:"Ce modèle est actuellement utilisé par %{settings}. Si la configuration est incorrecte, la fonctionnalité ne fonctionnera pas comme prévu."
other:"Ce modèle est actuellement utilisé par %{settings}. Si la configuration est incorrecte, les fonctionnalités ne fonctionneront pas comme prévu. "
model_description:
none:"Paramètres généraux qui fonctionnent pour la plupart des modèles linguistiques"
anthropic-claude-3-5-sonnet:"Le modèle le plus intelligent d'Anthropic"
anthropic-claude-3-5-haiku:"Rapide et économique"
anthropic-claude-3-opus:"Excelle dans l'écriture et les tâches complexes"
google-gemini-1-5-pro:"Modèle multimodal de taille moyenne capable d'effectuer une large gamme de tâches"
google-gemini-1-5-flash:"Léger, rapide et économique avec raisonnement multimodal"
open_ai-gpt-4-turbo:"Modèle de haute intelligence de la génération précédente"
open_ai-gpt-4o:"Modèle de haute intelligence pour les tâches complexes en plusieurs étapes"
open_ai-gpt-4o-mini:"Petit modèle abordable et rapide pour les tâches légères"
open_ai-o1-mini:"Modèle de raisonnement rentable"
open_ai-o1-preview:"Le modèle de raisonnement le plus performant d'Open AI"
samba_nova-Meta-Llama-3-1-8B-Instruct:"Modèle multilingue léger et efficace"
samba_nova-Meta-Llama-3-1-70B-Instruct": "Modèle polyvalent et puissant"
mistral-mistral-large-latest:"Le modèle le plus puissant de Mistral"
mistral-pixtral-large-latest:"Le modèle de Mistral le plus performant en matière de vision"
title_no_llms:"Sélectionnez un modèle pour commencer"
title:"Modèles LLM non configurés"
description:"Les LLM (Large Language Models) sont des outils d'IA optimisés pour des tâches telles que la synthèse de contenu, la génération de rapports, l'automatisation des interactions avec les clients et la facilitation de la modération et des informations sur les forums."
vision_enabled:"Si cette option est activée, l'IA tentera de comprendre les images. Cela dépend du modèle utilisé prenant en charge la vision. Pris en charge par les derniers modèles d'Anthropic, Google et OpenAI."