description:"La tabella elenca un conteggio di messaggi classificati con un'emozione determinata. Classificati con il modello 'SamLowe/roberta-base-go_emotions'."
description:"Durante il test, potresti voler eseguire il report in modo cronologico, utilizza lo scostamento per avviare il report in una data precedente"
instructions:
label:"Istruzioni"
description:"Le istruzioni fornite al large language model"
sample_size:
label:"Dimensione del campione"
description:"Il numero di messaggi da campionare per il report"
custom_instructions_help:"Istruzioni personalizzate specifiche per il tuo sito per aiutare l'intelligenza artificiale a identificare lo spam, ad esempio \"Sii più aggressivo nell'analizzare i post in una lingua diversa dall'italiano\"."
spam_tip:"Il rilevamento IA dello spam analizzerà i primi 3 messaggi di tutti i nuovi utenti su argomenti pubblici. Li contrassegnerà per la revisione e bloccherà gli utenti se rappresentano verosimilmente spam."
settings_saved:"Impostazioni salvate"
spam_description:"Identifica lo spam potenziale utilizzando l'LLM selezionato e lo segnala ai moderatori del sito affinché lo ispezionino nella coda di revisione"
cached_request_tokens:"Token di richiesta memorizzati nella cache"
no_users:"Nessun dato trovato sull'utilizzo dell'utente"
no_models:"Nessun dato trovato sull'utilizzo del modello"
no_features:"Nessun dato trovato sull'utilizzo delle funzionalità"
subheader_description:"I token sono le unità di base che gli LLM utilizzano per comprendere e generare testo; i dati di utilizzo possono incidere sui costi."
stat_tooltips:
total_requests:"Tutte le richieste inoltrate agli LLM tramite Discourse"
total_tokens:"Tutti i token utilizzati quando si richiede un LLM"
request_tokens:"Token utilizzati quando l'LLM cerca di capire cosa stai dicendo"
response_tokens:"Token utilizzati quando l'LLM risponde al tuo comando"
cached_tokens:"Token di richiesta elaborati in precedenza che LLM riutilizza per ottimizzare prestazioni e costi"
max_context_posts_help:"Il numero massimo di post da utilizzare come contesto per l'IA quando si risponde a un utente. (vuoto per impostazione predefinita)"
vision_enabled:Visione abilitata
vision_enabled_help:Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini che gli utenti pubblicano nell'argomento, a seconda del modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI.
mentionable_help:Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono menzionare questo utente nei post, l'IA risponderà come questa persona.
create_user_help:Facoltativamente, è possibile associare un utente a questa persona. In tal caso, l'IA utilizzerà questo utente per rispondere alle richieste.
default_llm_help:Il modello linguistico predefinito da utilizzare per questa persona. Obbligatorio se desideri menzionare la persona nei post pubblici.
question_consolidator_llm:Modello linguistico per il consolidatore di domande
question_consolidator_llm_help:Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi.
temperature_help:"Temperatura da utilizzare per LLM. Aumenta per aumentare la creatività (lascia vuoto per utilizzare il modello predefinito, generalmente un valore compreso tra 0,0 e 2,0)"
top_p_help:"P superiore da utilizzare per LLM, aumenta per aumentare la casualità (lascia vuoto per utilizzare l'impostazione predefinita del modello, generalmente un valore compreso tra 0,0 e 1,0)"
priority:"Priorità"
priority_help:"I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico."
rag_conversation_chunks_help:"Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare."
persona_description:"I personaggi sono una potente funzionalità che ti consente di personalizzare il comportamento del motore IA nel tuo forum Discourse. Agiscono come un \"messaggio di sistema\" che guida le risposte e le interazioni dell'IA, aiutando a creare un'esperienza utente più personalizzata e coinvolgente."
rag_chunk_tokens_help:"Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
max_tokens_help:"Numero massimo di token (parole e caratteri) che ogni utente di questo gruppo può utilizzare entro la durata specificata. I token sono le unità utilizzate dai modelli IA per elaborare il testo: circa 1 token = 4 caratteri o 3/4 di parola."
max_usages_help:"Numero massimo di volte in cui ogni utente in questo gruppo può usare il modello IA entro la durata specificata. Questa quota viene tracciata per singolo utente, non condivisa tra il gruppo."
one:"Questo modello è attualmente utilizzato da %{settings}. Se configurato in modo errato, la funzionalità non funzionerà come previsto."
other:"Questo modello è attualmente utilizzato da quanto segue: %{settings}. Se configurato in modo errato, le funzionalità non funzioneranno come previsto. "
model_description:
none:"Impostazioni generali che vanno bene per la maggior parte dei modelli linguistici"
anthropic-claude-3-5-sonnet:"Il modello più intelligente di Anthropic"
anthropic-claude-3-5-haiku:"Veloce e conveniente"
anthropic-claude-3-opus:"Eccelle nella scrittura e nei compiti complessi"
google-gemini-1-5-pro:"Modello multimodale di medie dimensioni in grado di svolgere un'ampia gamma di attività"
google-gemini-1-5-flash:"Leggero, veloce ed economico con ragionamento multimodale"
open_ai-gpt-4-turbo:"Modello ad alta intelligenza di generazione precedente"
open_ai-gpt-4o:"Modello ad alta intelligenza per attività complesse e multi-passaggio"
open_ai-gpt-4o-mini:"Modello piccolo, economico e veloce per lavori leggeri"
open_ai-o1-mini:"Modello di ragionamento economicamente efficiente"
samba_nova-Meta-Llama-3-1-8B-Instruct:"Modello multilingue leggero ed efficiente"
samba_nova-Meta-Llama-3-1-70B-Instruct": "Potente modello multifunzionale"
mistral-mistral-large-latest:"Il modello più potente di Mistral"
mistral-pixtral-large-latest:"Il modello con capacità di visione più potente di Mistral"
description:"Gli LLM (Large Language Models) sono strumenti di intelligenza artificiale ottimizzati per attività quali la sintesi dei contenuti, la generazione di report, l'automazione delle interazioni con i clienti e la facilitazione della moderazione e degli approfondimenti dei forum."
failure:"Il tentativo di contattare il modello ha restituito questo errore: %{error}"
hints:
max_prompt_tokens:"Numero massimo di token per il comando. Come regola generale, questo dovrebbe rappresentare il 50% della finestra di contesto del modello."
vision_enabled:"Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini. Dipende dal modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI."
prompt:"Questo post contiene immagini senza didascalie. Desideri abilitare le didascalie automatiche sui caricamenti di immagini? (Questa opzione può essere modificata nelle tue preferenze in seguito)"
confirm_delete:Vuoi davvero rimuovere questa configurazione di integrazione?
empty:"Non hai ancora impostato le integrazioni"
presets:"Seleziona una preimpostazione..."
configure_manually:"Configura manualmente"
edit:"Modifica"
seeded_warning:"Questo elemento è preconfigurato sul tuo sito e non può essere modificato."
tests:
title:"Esegui test"
running:"Esecuzione del test..."
success:"Operazione riuscita!"
failure:"Il tentativo di generare un'integrazione ha prodotto: %{error}"
hints:
dimensions_warning:"Una volta salvato, questo valore non può essere modificato."
matryoshka_dimensions:"Definisce la dimensione delle integrazioni nidificate utilizzate per la rappresentazione gerarchica o multistrato dei dati, in modo simile a come le matrioske si inseriscono l'una nell'altra."
sequence_length:"Numero massimo di token che possono essere elaborati contemporaneamente durante la creazione di integrazioni o la gestione di una query."
distance_function:"Determina come viene calcolata la similarità tra integrazioni, utilizzando la distanza del coseno (misurando l'angolo tra i vettori) o il prodotto interno negativo (misurando la sovrapposizione dei valori dei vettori)."
display_name:"Nome"
provider:"Fornitore"
url:"URL del servizio di integrazione"
api_key:"Chiave API del servizio di integrazione"
tokenizer:"Tokenizzatore"
dimensions:"Dimensioni dell'integrazione"
max_sequence_length:"Lunghezza della sequenza"
embed_prompt:"Comando di integrazione"
search_prompt:"Comando di ricerca"
matryoshka_dimensions:"Dimensioni della matrioska"