description:"Durante il test, potresti voler eseguire il report in modo cronologico, utilizza lo scostamento per avviare il report in una data precedente"
instructions:
label:"Istruzioni"
description:"Le istruzioni fornite al large language model"
sample_size:
label:"Dimensione del campione"
description:"Il numero di messaggi da campionare per il report"
no_llm_selected:"Nessun modello linguistico selezionato"
max_context_posts:"Numero massimo di post di contesto"
max_context_posts_help:"Il numero massimo di post da utilizzare come contesto per l'IA quando si risponde a un utente. (vuoto per impostazione predefinita)"
vision_enabled:Visione abilitata
vision_enabled_help:Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini che gli utenti pubblicano nell'argomento, a seconda del modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI.
vision_max_pixels:Dimensione immagine supportata
vision_max_pixel_sizes:
low: 'Bassa qualità:più veloce (256x256)'
medium:Qualità media (512x512)
high: 'Alta qualità:più lenta (1024x1024)'
tool_details:Mostra i dettagli dello strumento
tool_details_help:Mostrerà agli utenti finali i dettagli su quali strumenti ha attivato il modello linguistico.
mentionable:Consenti menzioni
mentionable_help:Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono menzionare questo utente nei post, l'IA risponderà come questa persona.
create_user_help:Facoltativamente, è possibile associare un utente a questa persona. In tal caso, l'IA utilizzerà questo utente per rispondere alle richieste.
default_llm:Modello linguistico predefinito
default_llm_help:Il modello linguistico predefinito da utilizzare per questa persona. Obbligatorio se desideri menzionare la persona nei post pubblici.
question_consolidator_llm:Modello linguistico per il consolidatore di domande
question_consolidator_llm_help:Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi.
temperature_help:Temperatura da utilizzare per LLM, aumenta per aumentare la creatività (lascia vuoto per utilizzare il modello predefinito, generalmente un valore compreso tra 0,0 e 2,0)
top_p:P superiore
top_p_help:P superiore da utilizzare per LLM, aumenta per aumentare la casualità (lascia vuoto per utilizzare l'impostazione predefinita del modello, generalmente un valore compreso tra 0,0 e 1,0)
priority_help:I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico.
rag_conversation_chunks:"Cerca blocchi di conversazione"
rag_conversation_chunks_help:"Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare."
what_are_personas:"Cosa sono i personaggi IA?"
no_persona_selected:|
I personaggi IA sono una potente funzionalità che ti consente di personalizzare il comportamento del motore IA nel tuo forum Discourse. Fungono da "messaggi di sistema" che guidano le risposte e le interazioni dell'intelligenza artificiale, contribuendo a creare un'esperienza utente più personalizzata e coinvolgente.
#### Perché utilizzare i personaggi IA?
Con i personaggi IA puoi personalizzare il comportamento dell'IA per adattarlo meglio al contesto e al tono del tuo forum. Sia che tu voglia che l'IA sia più formale per un ambiente professionale, più casual per un forum di community o addirittura incarni un personaggio specifico per un gioco di ruolo, i personaggi IA ti danno la flessibilità per farlo.
#### Accesso specifico per gruppo ai personaggi IA
Inoltre, puoi configurarli in modo che determinati gruppi di utenti abbiano accesso a personaggi specifici. Ciò significa che puoi avere comportamenti IA diversi per le diverse sezioni del tuo forum, migliorando ulteriormente la diversità e la ricchezza delle interazioni della tua community.
rag_chunk_tokens_help:"Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
rag_chunk_overlap_tokens:"Carica token di sovrapposizione di blocco"
rag_chunk_overlap_tokens_help:"Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)"
show_indexing_options:"Mostra opzioni di caricamento"
hide_indexing_options:"Nascondi opzioni di caricamento"
failure:"Il tentativo di contattare il modello ha restituito questo errore: %{error}"
hints:
max_prompt_tokens:"Numero massimo di token per il comando. Come regola generale, questo dovrebbe rappresentare il 50% della finestra di contesto del modello."
name:"Lo includiamo nella chiamata API per specificare quale modello utilizzeremo."
vision_enabled:"Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini. Dipende dal modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI."
prompt:"Questo post contiene immagini senza didascalie. Desideri abilitare le didascalie automatiche IA sui caricamenti di immagini? (Questa opzione può essere modificata nelle tue preferenze in seguito)"