# WARNING: Never edit this file. # It will be overwritten when translations are pulled from Crowdin. # # To work with us on translations, join this project: # https://translate.discourse.org/ it: admin_js: admin: api: scopes: descriptions: discourse_ai: search: "Consente la ricerca IA" stream_completion: "Consente lo streaming di completamenti di personaggi IA" site_settings: categories: discourse_ai: "Discourse AI" dashboard: emotion: title: "Emozione" description: "La tabella elenca un conteggio di messaggi classificati con un'emozione determinata. Classificati con il modello 'SamLowe/roberta-base-go_emotions'." js: discourse_automation: scriptables: llm_report: fields: sender: label: "Mittente" description: "L'utente che invierà il report" receivers: label: "Destinatari" description: "Gli utenti che riceveranno il report (le e-mail verranno inviate direttamente, i nomi utente verranno inviati un MP)" topic_id: label: "ID dell'argomento" description: "L'ID dell'argomento in cui pubblicare il report" title: label: "Titolo" description: "Il titolo del report" days: label: "Giorni" description: "L'arco temporale del report" offset: label: "Scostamento" description: "Durante il test, potresti voler eseguire il report in modo cronologico, utilizza lo scostamento per avviare il report in una data precedente" instructions: label: "Istruzioni" description: "Le istruzioni fornite al large language model" sample_size: label: "Dimensione del campione" description: "Il numero di messaggi da campionare per il report" tokens_per_post: label: "Token per messaggio" description: "Il numero di token LLM da utilizzare per messaggio" model: label: "Modello" description: "LLM da utilizzare per la generazione del report" categories: label: "Categorie" description: "Filtra gli argomenti solo in queste categorie" tags: label: "Etichette" description: "Filtra gli argomenti solo in base a queste etichette" exclude_tags: label: "Escludi tag" description: "Escludi argomenti con questi tag" exclude_categories: label: "Escludi categorie" description: "Escludi argomenti con queste categorie" allow_secure_categories: label: "Consenti categorie sicure" description: "Consenti la generazione del report per argomenti in categorie sicure" suppress_notifications: label: "Evita le notifiche" description: "Evita le notifiche che il report potrebbe generare trasformandosi in contenuto. Ciò rimapperà le menzioni e i link interni." debug_mode: label: "Modalità di debug" description: "Abilita la modalità di debug per visualizzare input e output non elaborati del LLM" priority_group: label: "Gruppo prioritario" description: "Dai la priorità ai contenuti di questo gruppo nel report" temperature: label: "Temperatura" description: "Temperatura da utilizzare per il LLM. Aumentala per aumentare la casualità (0 per utilizzare il modello predefinito)" top_p: label: "P superiore" description: "P superiore da utilizzare per il LLM, aumentala per aumentare la casualità (0 per utilizzare il modello predefinito)" llm_triage: fields: system_prompt: label: "Comando di sistema" description: "Il comando che verrà utilizzato per il triage, assicurati che risponda con una sola parola che puoi usare per attivare l'azione" max_post_tokens: label: "Numero massimo di token di messaggio" description: "Numero massimo di token per scansionare utilizzando il triage LLM" search_for_text: label: "Cerca testo" description: "Se nella risposta del LLM viene visualizzato il testo seguente, applica queste azioni" category: label: "Categoria" description: "Categoria da applicare all'argomento" tags: label: "Etichette" description: "Etichette da applicare all'argomento" canned_reply: label: "Rispondi" description: "Testo non elaborato della risposta predefinita al messaggio sull'argomento" canned_reply_user: label: "Utente della risposta" description: "Nome utente dell'utente che pubblicherà la risposta predefinita" hide_topic: label: "Nascondi argomento" description: "Rendi l'argomento non visibile al pubblico se attivato" flag_type: label: "Tipo di segnalazione" description: "Tipo di segnalazione da applicare al messaggio (spam o semplicemente passa in revisione)" flag_post: label: "Segnala messaggio" description: "Segnala il post (come spam o per la revisione)" include_personal_messages: label: "Includi messaggi personali" description: "Esegui anche la scansione e la selezione dei messaggi personali" model: label: "Modello" description: "Modello linguistico utilizzato per il triage" discourse_ai: title: "IA" modals: select_option: "Scegli un'opzione..." usage: short_title: "Utilizzo" summary: "Riepilogo" total_tokens: "Totale token" tokens_over_time: "Token nel tempo" features_breakdown: "Utilizzo per funzionalità" feature: "Funzionalità" usage_count: "Conteggio utilizzo" model: "Modello" models_breakdown: "Utilizzo per modello" users_breakdown: "Utilizzo per utente" all_features: "Tutte le funzionalità" all_models: "Tutti i modelli" username: "Nome utente" total_requests: "Richieste totali" request_tokens: "Token di richiesta" response_tokens: "Token di risposta" cached_tokens: "Token in cache" ai_persona: tool_strategies: all: "Applica a tutte le risposte" replies: one: "Applica solo alla prima risposta" other: "Applica alle prime %{count} risposte" back: "Indietro" name: "Nome" edit: "Modifica" description: "Descrizione" no_llm_selected: "Nessun modello linguistico selezionato" max_context_posts: "Numero massimo di messaggi di contesto" max_context_posts_help: "Il numero massimo di post da utilizzare come contesto per l'IA quando si risponde a un utente. (vuoto per impostazione predefinita)" vision_enabled: Visione abilitata vision_enabled_help: Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini che gli utenti pubblicano nell'argomento, a seconda del modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI. vision_max_pixels: Dimensione immagine supportata vision_max_pixel_sizes: low: 'Bassa qualità: più veloce (256x256)' medium: Qualità media (512x512) high: 'Alta qualità: più lenta (1024x1024)' tool_details: Mostra i dettagli dello strumento tool_details_help: Mostrerà agli utenti finali i dettagli su quali strumenti ha attivato il modello linguistico. mentionable: Consenti menzioni mentionable_help: Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono menzionare questo utente nei post, l'IA risponderà come questa persona. user: Utente create_user: Crea utente create_user_help: Facoltativamente, è possibile associare un utente a questa persona. In tal caso, l'IA utilizzerà questo utente per rispondere alle richieste. default_llm: Modello linguistico predefinito default_llm_help: Il modello linguistico predefinito da utilizzare per questa persona. Obbligatorio se desideri menzionare la persona nei post pubblici. question_consolidator_llm: Modello linguistico per il consolidatore di domande question_consolidator_llm_help: Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi. system_prompt: Comando di sistema forced_tool_strategy: Strategia degli strumenti forzati allow_chat_direct_messages: "Consenti messaggi diretti in chat" allow_chat_direct_messages_help: "Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono inviare messaggi diretti a questa persona." allow_chat_channel_mentions: "Consenti menzioni nei canali di chat" allow_chat_channel_mentions_help: "Se abilitato, gli utenti nei gruppi consentiti possono menzionare questo personaggio nei canali di chat." allow_personal_messages: "Consenti messaggi personali" allow_personal_messages_help: "Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono inviare messaggi personali a questo personaggio." allow_topic_mentions: "Consenti menzioni nell'argomento" allow_topic_mentions_help: "Se abilitato, gli utenti nei gruppi consentiti possono menzionare questa persona negli argomenti." force_default_llm: "Usa sempre il modello linguistico predefinito" save: "Salva" saved: "Persona salvata" enabled: "Abilitato?" tools: "Strumenti abilitati" forced_tools: "Strumenti forzati" allowed_groups: "Gruppi ammessi" confirm_delete: "Vuoi davvero eliminare questo personaggio?" new: "Nuovo personaggio" no_personas: "Non hai ancora creato nessun personaggio" title: "Personaggi" short_title: "Personaggi" delete: "Elimina" temperature: "Temperatura" temperature_help: "Temperatura da utilizzare per LLM. Aumenta per aumentare la creatività (lascia vuoto per utilizzare il modello predefinito, generalmente un valore compreso tra 0,0 e 2,0)" top_p: "P superiore" top_p_help: "P superiore da utilizzare per LLM, aumenta per aumentare la casualità (lascia vuoto per utilizzare l'impostazione predefinita del modello, generalmente un valore compreso tra 0,0 e 1,0)" priority: "Priorità" priority_help: "I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico." tool_options: "Opzioni dello strumento" rag_conversation_chunks: "Cerca blocchi di conversazione" rag_conversation_chunks_help: "Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare." persona_description: "I personaggi sono una potente funzionalità che ti consente di personalizzare il comportamento del motore IA nel tuo forum Discourse. Agiscono come un \"messaggio di sistema\" che guida le risposte e le interazioni dell'IA, aiutando a creare un'esperienza utente più personalizzata e coinvolgente." rag: options: rag_chunk_tokens: "Carica token di blocco" rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)" rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco" rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)" show_indexing_options: "Mostra opzioni di caricamento" hide_indexing_options: "Nascondi opzioni di caricamento" uploads: title: "Caricamenti" description: "I file caricati devono essere formattati come testo normale (.txt) o markdown (.md)." button: "Aggiungi file" filter: "Filtro caricamenti" indexed: "Indicizzato" indexing: "Indicizzazione" uploaded: "Pronto per essere indicizzato" uploading: "Caricamento..." remove: "Rimuovi caricamento" tools: back: "Indietro" short_title: "Strumenti" no_tools: "Non hai ancora creato nessuno strumento" name: "Nome" subheader_description: "Gli strumenti estendono le capacità dei bot di intelligenza artificiale con funzioni JavaScript definite dall'utente." new: "Nuovo strumento" name_help: "Il nome univoco dello strumento utilizzato dal modello linguistico" description: "Descrizione" description_help: "Una descrizione chiara dello scopo dello strumento per il modello linguistico" summary: "Riepilogo" summary_help: "Il riepilogo degli strumenti ha lo scopo di essere visualizzato agli utenti finali" script: "Script" parameters: "Parametri" save: "Salva" add_parameter: "Aggiungi parametro" parameter_required: "Obbligatorie" parameter_enum: "Enumerazione" parameter_name: "Nome del parametro" parameter_description: "Descrizione del parametro" enum_value: "Valore enumerativo" add_enum_value: "Aggiungi valore enumerativo" edit: "Modifica" test: "Esegui test" delete: "Elimina" saved: "Strumento salvato" presets: "Seleziona una preimpostazione..." confirm_delete: "Vuoi davvero eliminare questo strumento?" next: title: "Avanti" test_modal: title: "Prova lo strumento IA" run: "Esegui test" result: "Risultato del test" llms: short_title: "LLM" no_llms: "Ancora nessun LLM" new: "Nuovo modello" display_name: "Nome" name: "ID modello" provider: "Fornitore" tokenizer: "Tokenizzatore" max_prompt_tokens: "Numero di token per il comando" url: "URL del servizio che ospita il modello" api_key: "Chiave API del servizio che ospita il modello" enabled_chat_bot: "Consenti selettore bot IA" vision_enabled: "Visione abilitata" ai_bot_user: "Utente bot IA" save: "Salva" edit: "Modifica" saved: "Modello LLM salvato" back: "Indietro" confirm_delete: Vuoi davvero eliminare questo modello? delete: Elimina seeded_warning: "Questo modello è preconfigurato sul tuo sito e non può essere modificato." usage: ai_bot: "Bot IA" ai_helper: "Assistente" ai_persona: "Personaggio (%{persona})" ai_summarization: "Riassumi" ai_embeddings_semantic_search: "Ricerca IA" in_use_warning: one: "Questo modello è attualmente utilizzato da %{settings}. Se configurato in modo errato, la funzionalità non funzionerà come previsto." other: "Questo modello è attualmente utilizzato da quanto segue: %{settings}. Se configurato in modo errato, le funzionalità non funzioneranno come previsto. " model_description: none: "Impostazioni generali che vanno bene per la maggior parte dei modelli linguistici" anthropic-claude-3-5-sonnet: "Il modello più intelligente di Anthropic" anthropic-claude-3-5-haiku: "Veloce e conveniente" anthropic-claude-3-opus: "Eccelle nella scrittura e nei compiti complessi" google-gemini-1-5-pro: "Modello multimodale di medie dimensioni in grado di svolgere un'ampia gamma di attività" google-gemini-1-5-flash: "Leggero, veloce ed economico con ragionamento multimodale" open_ai-gpt-4-turbo: "Modello ad alta intelligenza di generazione precedente" open_ai-gpt-4o: "Modello ad alta intelligenza per attività complesse e multi-passaggio" open_ai-gpt-4o-mini: "Modello piccolo, economico e veloce per lavori leggeri" open_ai-o1-mini: "Modello di ragionamento economicamente efficiente" open_ai-o1-preview: "Il modello di ragionamento più capace di Open AI" samba_nova-Meta-Llama-3-1-8B-Instruct: "Modello multilingue leggero ed efficiente" samba_nova-Meta-Llama-3-1-70B-Instruct": "Potente modello multifunzionale" mistral-mistral-large-latest: "Il modello più potente di Mistral" mistral-pixtral-large-latest: "Il modello con capacità di visione più potente di Mistral" configured: title: "LLM configurati" preconfigured_llms: "Seleziona il tuo LLM" preconfigured: title_no_llms: "Seleziona un modello per iniziare" title: "Modelli LLM non configurati" description: "Gli LLM (Large Language Models) sono strumenti di intelligenza artificiale ottimizzati per attività quali la sintesi dei contenuti, la generazione di report, l'automazione delle interazioni con i clienti e la facilitazione della moderazione e degli approfondimenti dei forum." fake: "Configurazione manuale" button: "Configura" next: title: "Avanti" tests: title: "Esegui test" running: "Esecuzione del test..." success: "Riuscito!" failure: "Il tentativo di contattare il modello ha restituito questo errore: %{error}" hints: max_prompt_tokens: "Numero massimo di token per il comando. Come regola generale, questo dovrebbe rappresentare il 50% della finestra di contesto del modello." name: "Lo includiamo nella chiamata API per specificare quale modello utilizzeremo" vision_enabled: "Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini. Dipende dal modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI." enabled_chat_bot: "Se abilitato, gli utenti possono selezionare questo modello quando creano MP con il bot IA" providers: aws_bedrock: "AWS Bedrock" anthropic: "Anthropic" vllm: "vLLM" hugging_face: "Hugging Face" cohere: "Cohere" open_ai: "OpenAI" google: "Google" azure: "Azure" ollama: "Ollama" CDCK: "CDCK" samba_nova: "SambaNova" mistral: "Mistral" fake: "Personalizzato" provider_fields: access_key_id: "ID chiave di accesso AWS Bedrock" region: "Regione AWS Bedrock" organization: "ID organizzazione OpenAI facoltativo" disable_system_prompt: "Disabilita il messaggio di sistema nei comandi" enable_native_tool: "Abilita il supporto degli strumenti nativi" disable_native_tools: "Disabilita il supporto degli strumenti nativi (utilizza strumenti basati su XML)" related_topics: title: "Argomenti correlati" pill: "Correlato" ai_helper: title: "Suggerisci modifiche utilizzando l'IA" description: "Scegli una delle opzioni seguenti e l'IA ti suggerirà una nuova versione del testo." selection_hint: "Suggerimento: puoi anche selezionare una parte del testo prima di aprire l'assistente per riscrivere solo quel pezzo." suggest: "Suggerisci con l'IA" suggest_errors: too_many_tags: one: "Puoi avere solo fino a %{count} etichetta" other: "Puoi avere solo fino a %{count} etichette" no_suggestions: "Nessun suggerimento disponibile" missing_content: "Inserisci alcuni contenuti per generare suggerimenti." context_menu: trigger: "Chiedi all'IA" loading: "L'IA sta generando" cancel: "Annulla" regen: "Riprova" confirm: "Conferma" discard: "Elimina" changes: "Modifiche suggerite" custom_prompt: title: "Comando personalizzato" placeholder: "Inserisci un comando personalizzato..." submit: "Invia comando" translate_prompt: "Traduci in %{language}" post_options_menu: trigger: "Chiedi all'IA" title: "Chiedi all'IA" loading: "L'IA sta generando" close: "Chiudi" copy: "Copia" copied: "Copiato!" cancel: "Annulla" insert_footnote: "Aggiungi nota a piè di pagina" footnote_credits: "Spiegazione dell'IA" fast_edit: suggest_button: "Suggerisci modifica" thumbnail_suggestions: title: "Miniature suggerite" select: "Seleziona" selected: "Selezionato" image_caption: button_label: "Didascalia con IA" generating: "Generazione didascalia in corso..." credits: "Didascalia da IA" save_caption: "Salva" automatic_caption_setting: "Abilita sottotitoli automatici" automatic_caption_loading: "Generazione delle didascalie delle immagini..." automatic_caption_dialog: confirm: "Abilita" cancel: "Non chiedermelo più" no_content_error: "Aggiungi prima il contenuto per eseguire azioni IA su di esso" reviewables: model_used: "Modello utilizzato:" accuracy: "Precisione:" embeddings: semantic_search: "Argomenti (semantici)" semantic_search_loading: "Ricerca di altri risultati tramite intelligenza artificiale" semantic_search_results: toggle: "Stai vedendo %{count} risultati trovati utilizzando l'IA" toggle_hidden: "%{count} risultati trovati utilizzando l'IA sono stati nascosti" none: "Spiacenti, la nostra ricerca IA non ha trovato argomenti corrispondenti" new: "Premi \"cerca\" per iniziare a cercare nuovi risultati con l'intelligenza artificiale" ai_generated_result: "Risultato della ricerca trovato utilizzando l'intelligenza artificiale" quick_search: suffix: "in tutti gli argomenti e i post con IA" ai_artifact: expand_view_label: "Espandi vista" click_to_run_label: "Esegui artefatto" ai_bot: pm_warning: "I messaggi del chatbot IA vengono controllati regolarmente dai moderatori." cancel_streaming: "Interrompi risposta" default_pm_prefix: "[Bot IA senza titolo MP]" shortcut_title: "Avvia un MP con un bot IA" share: "Copia la conversazione IA" conversation_shared: "Conversazione copiata" debug_ai: "Visualizza la richiesta e la risposta IA non elaborate" debug_ai_modal: title: "Visualizza l'interazione dell'IA" copy_request: "Copia richiesta" copy_response: "Copia risposta" request_tokens: "Token richieste:" response_tokens: "Token risposte:" request: "Richiesta" response: "Risposta" next_log: "Avanti" previous_log: "Precedente" share_full_topic_modal: title: "Condividi la conversazione pubblicamente" share: "Condividi e copia il link" update: "Aggiorna e copia il link" delete: "Elimina condivisione" share_ai_conversation: name: "Condividi la conversazione con IA" title: "Condividi pubblicamente questa conversazione IA" ai_label: "IA" ai_title: "Conversazione con IA" share_modal: title: "Copia la conversazione IA" copy: "Copia" context: "Interazioni da condividere:" share_tip: "In alternativa, puoi condividere l'intera conversazione" bot_names: fake: "Bot di prova finto" claude-3-opus: "Claude 3 Opus" claude-3-sonnet: "Claude 3 Sonnet" claude-3-haiku: "Claude 3 Haiku" cohere-command-r-plus: "Cohere Command R Plus" gpt-4: "GPT-4" gpt-4-turbo: "GPT-4 Turbo" gpt-4o: "GPT-4 Omni" gpt-3: 5-turbo: "GPT-3.5" claude-2: "Claude 2" gemini-1: 5-pro: "Gemini" mixtral-8x7B-Instruct-V0: "1": "Mixtral-8x7B V0.1" sentiments: dashboard: title: "Sentimento" summarization: chat: title: "Riassumi i messaggi" description: "Seleziona un'opzione qui sotto per riepilogare la conversazione inviata nel periodo di tempo desiderato." summarize: "Riassumi" since: one: "Ultima ora" other: "Ultime %{count} ore" topic: title: "Riepilogo dell'argomento" close: "Chiudi il pannello riassuntivo" topic_list_layout: button: compact: "Compatto" expanded: "Espanso" expanded_description: "con riepiloghi IA" review: types: reviewable_ai_post: title: "Messaggio contrassegnato da IA" reviewable_ai_chat_message: title: "Messaggio di chat contrassegnato da IA"