discourse-ai/config/locales/client.it.yml

397 lines
20 KiB
YAML
Raw Permalink Normal View History

2023-07-25 11:57:58 -04:00
# WARNING: Never edit this file.
# It will be overwritten when translations are pulled from Crowdin.
#
# To work with us on translations, join this project:
# https://translate.discourse.org/
it:
2024-01-16 08:54:42 -05:00
admin_js:
admin:
site_settings:
categories:
discourse_ai: "Discourse AI"
2023-08-15 15:25:07 -04:00
js:
2023-10-04 03:54:32 -04:00
discourse_automation:
scriptables:
2023-12-19 16:45:37 -05:00
llm_report:
fields:
sender:
label: "Mittente"
2024-01-16 08:54:42 -05:00
description: "L'utente che invierà il report"
receivers:
label: "Destinatari"
description: "Gli utenti che riceveranno il report (le e-mail verranno inviate direttamente, i nomi utente verranno inviati un MP)"
2023-12-27 14:44:48 -05:00
topic_id:
label: "ID dell'argomento"
2024-01-16 08:54:42 -05:00
description: "L'ID dell'argomento in cui pubblicare il report"
2023-12-19 16:45:37 -05:00
title:
label: "Titolo"
2024-01-16 08:54:42 -05:00
description: "Il titolo del report"
days:
label: "Giorni"
description: "L'arco temporale del report"
offset:
label: "Scostamento"
description: "Durante il test, potresti voler eseguire il report in modo cronologico, utilizza lo scostamento per avviare il report in una data precedente"
instructions:
label: "Istruzioni"
description: "Le istruzioni fornite al large language model"
sample_size:
label: "Dimensione del campione"
description: "Il numero di messaggi da campionare per il report"
tokens_per_post:
2024-01-23 12:29:44 -05:00
label: "Token per messaggio"
2024-01-16 08:54:42 -05:00
description: "Il numero di token llm da utilizzare per messaggio"
model:
label: "Modello"
description: "LLM da utilizzare per la generazione del report"
2023-12-19 16:45:37 -05:00
categories:
label: "Categorie"
2024-08-08 17:12:35 -04:00
description: "Filtra gli argomenti solo in queste categorie"
2023-12-19 16:45:37 -05:00
tags:
label: "Etichette"
2024-01-23 12:29:44 -05:00
description: "Filtra gli argomenti solo in base a queste etichette"
2024-08-08 17:12:35 -04:00
exclude_tags:
label: "Escludi tag"
description: "Escludi argomenti con questi tag"
exclude_categories:
label: "Escludi categorie"
description: "Escludi argomenti con queste categorie"
2024-01-16 08:54:42 -05:00
allow_secure_categories:
label: "Consenti categorie sicure"
description: "Consenti la generazione del report per argomenti in categorie sicure"
2024-08-08 17:12:35 -04:00
suppress_notifications:
label: "Evita le notifiche"
description: "Evita le notifiche che il report potrebbe generare trasformandosi in contenuto. Ciò rimapperà le menzioni e i link interni."
2024-01-16 08:54:42 -05:00
debug_mode:
label: "Modalità di debug"
description: "Abilita la modalità di debug per visualizzare input e output non elaborati del LLM"
priority_group:
label: "Gruppo prioritario"
description: "Dai la priorità ai contenuti di questo gruppo nel report"
2024-08-08 17:12:35 -04:00
temperature:
label: "Temperatura"
description: "Temperatura da utilizzare per il LLM, aumentala per aumentare la casualità (0 per utilizzare il modello predefinito)"
top_p:
label: "P superiore"
description: "P superiore da utilizzare per il LLM, aumentala per aumentare la casualità (0 per utilizzare il modello predefinito)"
2023-10-04 03:54:32 -04:00
llm_triage:
fields:
2024-01-16 08:54:42 -05:00
system_prompt:
label: "Comando di sistema"
description: "Il comando che verrà utilizzato per il triage, assicurati che risponda con una sola parola che puoi usare per attivare l'azione"
search_for_text:
label: "Cerca testo"
description: "Se nella risposta del LLM viene visualizzato il testo seguente, applica queste azioni"
2023-10-04 03:54:32 -04:00
category:
label: "Categoria"
2024-01-16 08:54:42 -05:00
description: "Categoria da applicare all'argomento"
2023-10-04 03:54:32 -04:00
tags:
label: "Etichette"
2024-01-23 12:29:44 -05:00
description: "Etichette da applicare all'argomento"
2023-10-04 03:54:32 -04:00
canned_reply:
label: "Rispondi"
2024-01-16 08:54:42 -05:00
description: "Testo non elaborato della risposta predefinita al messaggio sull'argomento"
canned_reply_user:
label: "Utente della risposta"
description: "Nome utente dell'utente che pubblicherà la risposta predefinita"
hide_topic:
label: "Nascondi argomento"
description: "Rendi l'argomento non visibile al pubblico se attivato"
2024-08-08 17:12:35 -04:00
flag_post:
label: "Invia per il controllo"
description: "Se l'opzione è attiva, inserisce il post nella coda di revisione per consentire ai moderatori di valutarlo"
2024-01-16 08:54:42 -05:00
model:
label: "Modello"
2024-08-08 17:12:35 -04:00
description: "Modello linguistico utilizzato per il triage"
2023-08-15 15:25:07 -04:00
discourse_ai:
2024-01-16 08:54:42 -05:00
title: "IA"
2023-08-15 15:25:07 -04:00
modals:
select_option: "Scegli un'opzione..."
2023-11-21 08:36:22 -05:00
ai_persona:
2024-03-26 09:21:23 -04:00
back: Indietro
2023-11-21 08:36:22 -05:00
name: Nome
2024-03-26 09:21:23 -04:00
edit: Modifica
2023-11-21 08:36:22 -05:00
description: Descrizione
2024-08-08 17:12:35 -04:00
no_llm_selected: "Nessun modello linguistico selezionato"
max_context_posts: "Numero massimo di post di contesto"
max_context_posts_help: "Il numero massimo di post da utilizzare come contesto per l'IA quando si risponde a un utente. (vuoto per impostazione predefinita)"
vision_enabled: Visione abilitata
vision_enabled_help: Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini che gli utenti pubblicano nell'argomento, a seconda del modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI.
vision_max_pixels: Dimensione immagine supportata
vision_max_pixel_sizes:
low: 'Bassa qualità: più veloce (256x256)'
medium: Qualità media (512x512)
high: 'Alta qualità: più lenta (1024x1024)'
tool_details: Mostra i dettagli dello strumento
tool_details_help: Mostrerà agli utenti finali i dettagli su quali strumenti ha attivato il modello linguistico.
mentionable: Consenti menzioni
mentionable_help: Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono menzionare questo utente nei post, l'IA risponderà come questa persona.
2024-02-22 08:50:35 -05:00
user: Utente
2024-08-08 17:12:35 -04:00
create_user: Crea un utente
create_user_help: Facoltativamente, è possibile associare un utente a questa persona. In tal caso, l'IA utilizzerà questo utente per rispondere alle richieste.
default_llm: Modello linguistico predefinito
default_llm_help: Il modello linguistico predefinito da utilizzare per questa persona. Obbligatorio se desideri menzionare la persona nei post pubblici.
question_consolidator_llm: Modello linguistico per il consolidatore di domande
question_consolidator_llm_help: Il modello linguistico da utilizzare per il consolidatore di domande. È possibile scegliere un modello meno potente per risparmiare sui costi.
2024-01-16 08:54:42 -05:00
system_prompt: Comando di sistema
2024-08-08 17:12:35 -04:00
show_indexing_options: "Mostra opzioni di caricamento"
hide_indexing_options: "Nascondi opzioni di caricamento"
allow_chat: "Consenti chat"
allow_chat_help: "Se l'opzione è abilitata, gli utenti nei gruppi consentiti possono scrivere in DM questa persona"
2023-11-21 08:36:22 -05:00
save: Salva
2024-01-16 08:54:42 -05:00
saved: Personaggio IA salvato
2024-03-26 09:21:23 -04:00
enabled: "Abilitato?"
2024-08-08 17:12:35 -04:00
tools: Strumenti abilitati
2024-01-16 08:54:42 -05:00
allowed_groups: Gruppi ammessi
confirm_delete: Vuoi davvero eliminare questo personaggio?
2024-08-08 17:12:35 -04:00
new: "Nuovo personaggio"
2024-01-16 08:54:42 -05:00
title: "Personaggi IA"
2024-08-08 17:12:35 -04:00
short_title: "Personaggi"
2023-11-21 08:36:22 -05:00
delete: Elimina
2024-08-08 17:12:35 -04:00
temperature: Temperatura
temperature_help: Temperatura da utilizzare per LLM, aumenta per aumentare la creatività (lascia vuoto per utilizzare il modello predefinito, generalmente un valore compreso tra 0,0 e 2,0)
top_p: P superiore
top_p_help: P superiore da utilizzare per LLM, aumenta per aumentare la casualità (lascia vuoto per utilizzare l'impostazione predefinita del modello, generalmente un valore compreso tra 0,0 e 1,0)
2024-01-16 08:54:42 -05:00
priority: Priorità
priority_help: I personaggi prioritari vengono visualizzati agli utenti nella parte superiore dell'elenco dei personaggi. Se più personaggi hanno la priorità, verranno ordinati in ordine alfabetico.
2024-08-08 17:12:35 -04:00
tool_options: "Opzioni dello strumento"
rag_chunk_tokens: "Carica token di blocco"
rag_chunk_tokens_help: "Il numero di token da utilizzare per ogni blocco nel modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare. (La modifica reindicizzerà tutti i caricamenti)"
rag_chunk_overlap_tokens: "Carica token di sovrapposizione di blocco"
rag_chunk_overlap_tokens_help: "Il numero di token da sovrapporre tra i blocchi nel modello RAG. (La modifica reindicizzerà tutti i caricamenti)"
rag_conversation_chunks: "Cerca blocchi di conversazione"
rag_conversation_chunks_help: "Il numero di blocchi da utilizzare per le ricerche del modello RAG. Aumenta per aumentare la quantità di contesto che l'IA può utilizzare."
what_are_personas: "Cosa sono i personaggi IA?"
no_persona_selected: |
I personaggi IA sono una potente funzionalità che ti consente di personalizzare il comportamento del motore IA nel tuo forum Discourse. Fungono da "messaggi di sistema" che guidano le risposte e le interazioni dell'intelligenza artificiale, contribuendo a creare un'esperienza utente più personalizzata e coinvolgente.
#### Perché utilizzare i personaggi IA?
Con i personaggi IA puoi personalizzare il comportamento dell'IA per adattarlo meglio al contesto e al tono del tuo forum. Sia che tu voglia che l'IA sia più formale per un ambiente professionale, più casual per un forum di community o addirittura incarni un personaggio specifico per un gioco di ruolo, i personaggi IA ti danno la flessibilità per farlo.
#### Accesso specifico per gruppo ai personaggi IA
Inoltre, puoi configurarli in modo che determinati gruppi di utenti abbiano accesso a personaggi specifici. Ciò significa che puoi avere comportamenti IA diversi per le diverse sezioni del tuo forum, migliorando ulteriormente la diversità e la ricchezza delle interazioni della tua community.
2024-04-02 12:19:55 -04:00
uploads:
title: "Caricamenti"
2024-08-08 17:12:35 -04:00
description: "Il tuo personaggio IA sarà in grado di cercare e fare riferimento al contenuto dei file inclusi. I file caricati devono essere formattati come testo normale (.txt) o markdown (.md)."
button: "Aggiungi file"
filter: "Filtro caricamenti"
indexed: "Indicizzato"
indexing: "Indicizzazione"
uploaded: "Pronto per essere indicizzato"
2024-04-16 11:38:00 -04:00
uploading: "Caricamento..."
2024-08-08 17:12:35 -04:00
remove: "Rimuovi caricamento"
2024-07-02 10:42:52 -04:00
tools:
2024-07-23 09:23:51 -04:00
back: "Indietro"
2024-08-08 17:12:35 -04:00
short_title: "Strumenti"
new: "Nuovo strumento"
2024-07-02 10:42:52 -04:00
name: "Nome"
2024-08-08 17:12:35 -04:00
name_help: "Il nome univoco dello strumento utilizzato dal modello linguistico"
2024-07-02 10:42:52 -04:00
description: "Descrizione"
2024-08-08 17:12:35 -04:00
description_help: "Una descrizione chiara dello scopo dello strumento per il modello linguistico"
2024-07-02 10:42:52 -04:00
summary: "Riepilogo"
2024-08-08 17:12:35 -04:00
summary_help: "Il riepilogo degli strumenti ha lo scopo di essere visualizzato agli utenti finali"
script: "Script"
parameters: "Parametri"
2024-07-02 10:42:52 -04:00
save: "Salva"
2024-08-08 17:12:35 -04:00
add_parameter: "Aggiungi parametro"
2024-07-02 10:42:52 -04:00
parameter_required: "Obbligatorie"
2024-08-08 17:12:35 -04:00
parameter_enum: "Enumerazione"
parameter_name: "Nome del parametro"
parameter_description: "Descrizione dei parametri"
enum_value: "Valore enumerativo"
add_enum_value: "Aggiungi valore enumerativo"
2024-07-02 10:42:52 -04:00
edit: "Modifica"
test: "Esegui test"
delete: "Elimina"
2024-08-08 17:12:35 -04:00
saved: "Strumento salvato"
presets: "Seleziona una preimpostazione..."
confirm_delete: Vuoi davvero eliminare questo strumento?
2024-07-02 10:42:52 -04:00
next:
title: "Avanti"
test_modal:
2024-08-08 17:12:35 -04:00
title: "Prova lo strumento IA"
2024-07-02 10:42:52 -04:00
run: "Esegui test"
2024-08-08 17:12:35 -04:00
result: "Risultato del test"
2024-05-14 10:19:53 -04:00
llms:
2024-08-08 17:12:35 -04:00
short_title: "LLM"
no_llms: "Ancora nessun LLM"
new: "Nuovo modello"
display_name: "Nome da visualizzare"
name: "Nome del modello"
provider: "Servizio che ospita il modello"
tokenizer: "Tokenizzatore"
max_prompt_tokens: "Numero di token per il comando"
url: "URL del servizio che ospita il modello"
api_key: "Chiave API del servizio che ospita il modello"
enabled_chat_bot: "Consenti bot IA"
vision_enabled: "Visione abilitata"
ai_bot_user: "Utente bot IA"
2024-05-14 10:19:53 -04:00
save: "Salva"
2024-05-21 11:41:00 -04:00
edit: "Modifica"
2024-08-08 17:12:35 -04:00
saved: "Modello LLM salvato"
2024-05-21 11:41:00 -04:00
back: "Indietro"
2024-08-08 17:12:35 -04:00
confirm_delete: Vuoi davvero eliminare questo modello?
2024-05-31 06:27:35 -04:00
delete: Elimina
2024-08-08 17:12:35 -04:00
preconfigured_llms: "Seleziona il tuo LLM"
preconfigured:
none: "Configura manualmente..."
2024-06-25 09:40:17 -04:00
next:
title: "Avanti"
2024-05-31 06:27:35 -04:00
tests:
title: "Esegui test"
2024-08-08 17:12:35 -04:00
running: "Esecuzione del test..."
2024-05-31 06:27:35 -04:00
success: "Riuscito!"
2024-08-08 17:12:35 -04:00
failure: "Il tentativo di contattare il modello ha restituito questo errore: %{error}"
hints:
max_prompt_tokens: "Numero massimo di token per il comando. Come regola generale, questo dovrebbe rappresentare il 50% della finestra di contesto del modello."
name: "Lo includiamo nella chiamata API per specificare quale modello utilizzeremo."
vision_enabled: "Se l'opzione è abilitata, l'intelligenza artificiale tenterà di comprendere le immagini. Dipende dal modello utilizzato per supportare la visione. Supportato dagli ultimi modelli di Anthropic, Google e OpenAI."
2024-05-14 10:19:53 -04:00
providers:
2024-08-08 17:12:35 -04:00
aws_bedrock: "AWS Bedrock"
anthropic: "Anthropic"
vllm: "vLLM"
hugging_face: "Hugging Face"
cohere: "Cohere"
open_ai: "OpenAI"
2024-05-14 10:19:53 -04:00
google: "Google"
2024-08-08 17:12:35 -04:00
azure: "Azure"
ollama: "Ollama"
provider_fields:
access_key_id: "ID chiave di accesso AWS Bedrock"
region: "Regione AWS Bedrock"
organization: "ID organizzazione OpenAI facoltativo"
2023-08-15 15:25:07 -04:00
related_topics:
2024-01-16 08:54:42 -05:00
title: "Argomenti correlati"
2023-08-15 15:25:07 -04:00
pill: "Correlato"
ai_helper:
title: "Suggerisci modifiche utilizzando l'IA"
description: "Scegli una delle opzioni seguenti e l'IA ti suggerirà una nuova versione del testo."
selection_hint: "Suggerimento: puoi anche selezionare una parte del testo prima di aprire l'assistente per riscrivere solo quel pezzo."
2024-01-16 08:54:42 -05:00
suggest: "Suggerisci con l'IA"
missing_content: "Inserisci alcuni contenuti per generare suggerimenti."
2023-08-29 09:51:02 -04:00
context_menu:
2023-09-27 05:03:11 -04:00
back: "Indietro"
2024-01-16 08:54:42 -05:00
trigger: "IA"
2023-08-29 09:51:02 -04:00
undo: "Annulla"
2024-01-16 08:54:42 -05:00
loading: "L'IA sta generando"
2023-08-29 09:51:02 -04:00
cancel: "Annulla"
regen: "Riprova"
2024-01-16 08:54:42 -05:00
view_changes: "Visualizza modifiche"
2023-08-29 09:51:02 -04:00
confirm: "Conferma"
revert: "Ripristina"
2024-01-16 08:54:42 -05:00
changes: "Modifiche"
custom_prompt:
title: "Comando personalizzato"
placeholder: "Inserisci un comando personalizzato..."
submit: "Invia comando"
2024-08-08 17:12:35 -04:00
translate_prompt: "Traduci in %{language}"
2023-10-24 09:53:44 -04:00
post_options_menu:
2024-01-16 08:54:42 -05:00
trigger: "Chiedi all'IA"
title: "Chiedi all'IA"
loading: "L'IA sta generando"
2023-10-24 09:53:44 -04:00
close: "Chiudi"
2023-11-21 08:36:22 -05:00
copy: "Copia"
copied: "Copiato!"
2023-12-19 16:45:37 -05:00
cancel: "Annulla"
2024-08-08 17:12:35 -04:00
insert_footnote: "Aggiungi nota a piè di pagina"
footnote_credits: "Spiegazione dell'IA"
selected_text: "Testo selezionato"
2024-01-16 08:54:42 -05:00
fast_edit:
suggest_button: "Suggerisci modifica"
2023-12-27 14:44:48 -05:00
thumbnail_suggestions:
2024-01-16 08:54:42 -05:00
title: "Miniature suggerite"
2023-12-27 14:44:48 -05:00
select: "Seleziona"
selected: "Selezionato"
2024-02-22 08:50:35 -05:00
image_caption:
2024-08-08 17:12:35 -04:00
button_label: "Didascalia con IA"
generating: "Generazione didascalia in corso..."
credits: "Didascalia da IA"
2024-02-22 08:50:35 -05:00
save_caption: "Salva"
2024-08-08 17:12:35 -04:00
automatic_caption_setting: "Abilita le didascalie automatiche delle immagini IA"
automatic_caption_loading: "Generazione delle didascalie delle immagini..."
2024-05-31 06:27:35 -04:00
automatic_caption_dialog:
2024-08-08 17:12:35 -04:00
prompt: "Questo post contiene immagini senza didascalie. Desideri abilitare le didascalie automatiche IA sui caricamenti di immagini? (Questa opzione può essere modificata nelle tue preferenze in seguito)"
2024-05-31 06:27:35 -04:00
confirm: "Abilita"
2024-08-08 17:12:35 -04:00
cancel: "Non chiedermelo più"
2023-08-15 15:25:07 -04:00
reviewables:
model_used: "Modello utilizzato:"
accuracy: "Precisione:"
embeddings:
semantic_search: "Argomenti (semantici)"
2024-01-16 08:54:42 -05:00
semantic_search_loading: "Ricerca di altri risultati tramite intelligenza artificiale"
semantic_search_results:
toggle: "Stai vedendo %{count} risultati trovati utilizzando l'IA"
toggle_hidden: "%{count} risultati trovati utilizzando l'IA sono stati nascosti"
none: "Spiacenti, la nostra ricerca IA non ha trovato argomenti corrispondenti."
new: "Premi \"Cerca\" per iniziare a cercare nuovi risultati con l'intelligenza artificiale"
ai_generated_result: "Risultato della ricerca trovato utilizzando l'intelligenza artificiale"
2024-08-08 17:12:35 -04:00
quick_search:
suffix: "in tutti gli argomenti e i post con IA"
2023-08-15 15:25:07 -04:00
ai_bot:
2024-01-16 08:54:42 -05:00
pm_warning: "I messaggi del chatbot IA vengono controllati regolarmente dai moderatori."
2023-08-15 15:25:07 -04:00
cancel_streaming: "Interrompi risposta"
default_pm_prefix: "[Bot IA senza titolo MP]"
shortcut_title: "Avvia un MP con un bot IA"
2024-01-16 08:54:42 -05:00
share: "Condividi la conversazione con IA"
conversation_shared: "Conversazione copiata"
2024-08-08 17:12:35 -04:00
debug_ai: "Visualizza la richiesta e la risposta IA non elaborate"
2024-05-14 10:19:53 -04:00
debug_ai_modal:
2024-08-08 17:12:35 -04:00
title: "Visualizza l'interazione dell'IA"
copy_request: "Copia richiesta"
copy_response: "Copia risposta"
request_tokens: "Token richieste:"
response_tokens: "Token risposte:"
2024-05-14 10:19:53 -04:00
request: "Richiesta"
response: "Risposta"
2024-08-08 17:12:35 -04:00
share_full_topic_modal:
title: "Condividi la conversazione pubblicamente"
share: "Condividi e copia il link"
update: "Aggiorna e copia il link"
delete: "Elimina condivisione"
share_ai_conversation:
name: "Condividi la conversazione IA"
title: "Condividi pubblicamente questa conversazione IA"
2024-01-16 08:54:42 -05:00
ai_label: "IA"
ai_title: "Conversazione con IA"
2024-01-02 09:26:08 -05:00
share_modal:
2024-08-08 17:12:35 -04:00
title: "Copia la conversazione IA"
2024-01-02 09:26:08 -05:00
copy: "Copia"
2024-01-16 08:54:42 -05:00
context: "Interazioni da condividere:"
2024-08-08 17:12:35 -04:00
share_tip: In alternativa, puoi condividere l'intera conversazione.
2023-08-15 15:25:07 -04:00
bot_names:
2024-08-08 17:12:35 -04:00
fake: "Bot di prova finto"
claude-3-opus: "Claude 3 Opus"
claude-3-sonnet: "Claude 3 Sonnet"
claude-3-haiku: "Claude 3 Haiku"
cohere-command-r-plus: "Cohere Command R Plus"
2023-08-15 15:25:07 -04:00
gpt-4: "GPT-4"
2024-01-16 08:54:42 -05:00
gpt-4-turbo: "GPT-4 Turbo"
2024-08-08 17:12:35 -04:00
gpt-4o: "GPT-4 Omni"
2023-08-15 15:25:07 -04:00
gpt-3:
5-turbo: "GPT-3.5"
claude-2: "Claude 2"
2024-04-23 10:22:37 -04:00
gemini-1:
5-pro: "Gemini"
2024-01-16 08:54:42 -05:00
mixtral-8x7B-Instruct-V0:
"1": "Mixtral-8x7B V0.1"
sentiments:
dashboard:
title: "Sentimento"
2024-07-09 17:12:11 -04:00
summarization:
chat:
title: "Riassumi i messaggi"
description: "Seleziona un'opzione qui sotto per riepilogare la conversazione inviata nel periodo di tempo desiderato."
summarize: "Riassumi"
since:
one: "Ultima ora"
other: "Ultime %{count} ore"
2023-08-15 15:25:07 -04:00
review:
types:
reviewable_ai_post:
2024-01-23 12:29:44 -05:00
title: "Messaggio contrassegnato da IA"
2023-08-15 15:25:07 -04:00
reviewable_ai_chat_message:
title: "Messaggio di chat contrassegnato da IA"