discourse-ai/config/locales/client.pt_BR.yml

322 lines
14 KiB
YAML

# WARNING: Never edit this file.
# It will be overwritten when translations are pulled from Crowdin.
#
# To work with us on translations, join this project:
# https://translate.discourse.org/
pt_BR:
admin_js:
admin:
site_settings:
categories:
discourse_ai: "Discourse IA"
js:
discourse_automation:
scriptables:
llm_report:
fields:
sender:
label: "Remetente"
description: "O(a) usuário(a) enviará o relatório"
receivers:
label: "Destinatários(as)"
description: "Os(as) usuários(as) que receberão o relatório (os e-mails serão enviados diretamente por e-mail, e os nomes de usuário(a) por MP)"
topic_id:
label: "ID do tópico"
title:
label: "Título"
description: "O título do relatório"
days:
label: "Dias"
description: "O tempo de duração do relatório"
offset:
label: "Deslocamento"
description: "Durante o teste, você pode querer executar o relatório com base no histórico, use o deslocamento para iniciar o relatório numa data anterior"
instructions:
label: "Instruções"
description: "As instruções fonrecidas ao modelo de linguagem grande"
sample_size:
label: "Tamanho da amostra"
description: "A quantidade de postagens para fazer amostragem para o relatório"
tokens_per_post:
label: "Tokens por postagem"
model:
label: "Modelo"
description: "O LLM para usar na geração de relatórios"
categories:
label: "Categorias"
description: "Filtrar tópicos apenas para estas categorias"
tags:
label: "Etiquetas"
description: "Filtrar tópicos apenas para estas etiquetas"
exclude_tags:
label: "Excluir etiquetas"
description: "Excluir tópicos com estas etiquetas"
exclude_categories:
label: "Excluir categorias"
description: "Excluir tópicos com estas categorias"
allow_secure_categories:
label: "Permitir categorias seguras"
description: "Permitir que o relatório seja gerado para tópicos em categorias seguras"
suppress_notifications:
label: "Suprimir notificações"
description: "Suprima notificações que podem ser geradas pelo relatório ao transformar em conteúdo. As menções e links internos serão remapeados."
debug_mode:
label: "Modo de depuração"
description: "Ativar o modo de depuração para ver as entradas e saídas não processadas do LLM"
priority_group:
label: "Grupo de prioridade"
description: "Priorizar o conteúdo deste grupo no relatório"
temperature:
label: "Temperatura"
top_p:
label: "Maior P"
description: "P Máximo para usar no LLM, aumente para incrementar o fator aleatório (0 para usar o padrão do modelo)"
llm_triage:
fields:
system_prompt:
label: "Prompt do sistema"
description: "O prompt que será usado para triagem, verifique se responderá com uma única palavra que pode ser usada para acionar a ação"
search_for_text:
label: "Pesquisar texto"
category:
label: "Categoria"
description: "Categoria para aplicar no tópico"
tags:
label: "Etiquetas"
description: "Etiquetas para aplicar no tópico"
canned_reply:
label: "Responder"
canned_reply_user:
label: "Usuário(a) de resposta"
description: "O nome de usuário(a) para postar a resposta pré-preparada"
hide_topic:
label: "Ocultar tópico"
model:
label: "Modelo"
description: "Modelo de linguagem usado para triagem"
discourse_ai:
title: "IA"
modals:
select_option: "Selecione uma opção..."
ai_persona:
back: "Voltar"
name: "Nome"
edit: "Editar"
description: "Descrição"
no_llm_selected: "Nenhum modelo de linguagem selecionado"
max_context_posts_help: "A quantidade máxima de postagens para usar como contexto para a IA ao responder ao(à) usuário(a). (deixar vazio para padrão)"
vision_enabled: Visão ativada
vision_enabled_help: Ative para a IA tentar entender as imagens postadas pelos(as) usuários(as) no tópico conforme o modelo usado na visão compatível. É compatível com os modelos mais recentes do Anthropic, Google e OpenAI.
vision_max_pixels: Tamanho de imagem compatível
tool_details_help: Serão exibidos aos(às) usuários(as) finais as ferramentas nas quais o modelo de linguagem foi acionado.
mentionable_help: Ative para que os(as) usuários(as) nos grupos permitidos possam mencionar este(a) usuário(a) nas postagens. A IA responderá como esta persona.
user: Usuário(a)
create_user_help: Como alternativa, você poderá anexar um(a) usuário(a) a esta persona. Se fizer isso, a IA usará este(a) usuário(a) para responder aos pedidos.
default_llm_help: O modelo de linguagem padrão a ser usado para esta persona. É obrigatório se você quiser mencionar a persona em postagens públicas.
question_consolidator_llm: Modelo de linguagem para consolidador de pergunta
question_consolidator_llm_help: O modelo de linguagem a ser usado para o consolidador de pergunta. Para economizar, você pode escolher um modelo menos robusto.
save: "Salvar"
enabled: "Ativado(a)?"
allowed_groups: "Grupos permitidos"
confirm_delete: "Você tem certeza de que deseja excluir esta persona?"
title: "Personas"
short_title: "Personas"
delete: "Excluir"
temperature: "Temperatura"
top_p: "P Máximo"
top_p_help: "O P Máximo a ser usado para o LLM, aumente para incrementar o fator aleatório (deixe vazio para usar o padrão do modelo, que geralmente é um valor que varia entre 0.0 e 1.0)"
priority: "Prioridade"
priority_help: "Personas de prioridade são exibidas aos(às) usuários(as) no topo da lista de personas. Se várias personas tiverem prioridade, serão escolhidas em ordem alfabética."
rag_conversation_chunks_help: "O número de pedaços a serem usados para pesquisas de modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar."
rag:
options:
rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
uploads:
title: "Envios"
filter: "Filtrar envios"
indexed: "Indexado(a)"
indexing: "Indexação"
uploaded: "Pronto(a) para indexação"
uploading: "Enviando..."
remove: "Remover envio"
tools:
back: "Voltar"
short_title: "Ferramentas"
name: "Nome"
name_help: "O nome exclusivo da ferramenta conforme usado pelo modelo de linguagem"
description: "Descrição"
description_help: "Descrição clara da finalidade da ferramenta para o modelo de linguagem"
summary: "Resumo"
summary_help: "Resumo das finalidades das ferramentas a ser exibido para usuários(as) finais"
script: "Script"
parameters: "Parâmetros"
save: "Salvar"
add_parameter: "Adicionar parâmero"
parameter_required: "Necessário(a)"
parameter_enum: "Enumeração"
enum_value: "Valor da enumeração"
add_enum_value: "Adicionar valor da enumeração"
edit: "Editar"
delete: "Excluir"
saved: "Ferramenta salva"
presets: "Selecione uma predefinição..."
confirm_delete: "Tem certeza de que deseja excluir esta ferramenta?"
next:
title: "Próximo"
llms:
short_title: "LLMs"
no_llms: "Nenhum LLM ainda"
display_name: "Nome"
tokenizer: "Tokenizador"
max_prompt_tokens: "Quantidade de tokens para o prompt"
url: "URL do serviço da hospedagem do modelo"
api_key: "Chave de API do serviço da hospedagem do modelo"
vision_enabled: "Visão ativada"
save: "Salvar"
edit: "Editar"
back: "Voltar"
confirm_delete: Tem certeza de que deseja excluir este modelo?
delete: Excluir
usage:
ai_summarization: "Resumir"
preconfigured_llms: "Selecione sua LLM"
next:
title: "Próximo"
tests:
running: "Executando teste..."
success: "Sucesso!"
failure: "Erro retornado ao tentar entrar em contato com o modelo: %{error}"
hints:
max_prompt_tokens: "Quantidade máxima de tokens para o prompt. Como a regra do polegar, deve ser 50% da janela de contexto do modelo."
vision_enabled: "Ative para a IA tentar entender as imagens. Depende do modelo usado na visão compatível. É compatível com os modelos mais recentes do Anthropic, Google e OpenAI."
providers:
aws_bedrock: "AWS Bedrock"
anthropic: "Anthropic"
vllm: "vLLM"
hugging_face: "Hugging Face"
cohere: "Cohere"
open_ai: "OpenAI"
google: "Google"
azure: "Azure"
ollama: "Ollama"
fake: "Personalizados(as)"
related_topics:
pill: "Relacionado(a)"
ai_helper:
title: "Sugerir alterações com IA"
description: "Escolha uma das opções abaixo, e a IA irá sugerir uma nova versão do texto."
selection_hint: "Dica: antes de abrir o ajudante, você pode selecionar uma parte do texto para reescrever apenas ela."
suggest: "Sugestão com IA"
missing_content: "Insira conteúdo para gerar sugestões."
context_menu:
trigger: "Perguntar à IA"
loading: "A IA está gerando"
cancel: "Cancelar"
regen: "Tentar novamente"
confirm: "Confirmar"
discard: "Descartar"
custom_prompt:
placeholder: "Insira um prompt personalizado..."
translate_prompt: "Traduzir para %{language}"
post_options_menu:
trigger: "Perguntar à IA"
title: "Perguntar à IA"
loading: "A IA está gerando"
close: "Fechar"
copy: "Copiar"
copied: "Copiou!"
cancel: "Cancelar"
insert_footnote: "Adicionar nota de rodapé"
footnote_credits: "Explicação da IA"
thumbnail_suggestions:
select: "Selecionar"
selected: "Selecionado(a)"
image_caption:
button_label: "Legenda com IA"
generating: "Gerando legenda..."
credits: "Legendado por IA"
save_caption: "Salvar"
automatic_caption_loading: "Legendando imagens..."
automatic_caption_dialog:
confirm: "Ativar"
cancel: "Não perguntar novamente"
reviewables:
model_used: "Modelo usado:"
accuracy: "Precisão:"
embeddings:
semantic_search: "Tópicos (semântica)"
semantic_search_loading: "Pesquisando mais resultados usando IA"
semantic_search_results:
toggle: "Mostrando %{count} resultados encontrados usando IA"
toggle_hidden: "Ocultando %{count} resultados encontrados usando IA"
none: "Desculpe, nossa Pesquisa com IA não achou tópicos correspondentes"
ai_generated_result: "Resultado de pesquisa encontrado usando IA"
quick_search:
suffix: "em todos os tópicos e postagens com IA"
ai_bot:
pm_warning: "Todas as mensagens do chatbot de IA são monitoradas regularmente por moderadores(as)."
cancel_streaming: "Parar resposta"
default_pm_prefix: "[MP de bot de IA não identificado]"
shortcut_title: "Iniciar uma MP com bot de IA"
share: "Copiar conversa com IA"
conversation_shared: "Conversação copiada"
debug_ai: "Visualizar resposta e pedido de IA não processado"
debug_ai_modal:
title: "Visualizar interação com IA"
copy_request: "Copiar solicitação"
copy_response: "Copiar resposta"
request_tokens: "Tokens de pedido:"
response_tokens: "Tokens de resposta:"
request: "Pedir"
response: "Resposta"
next_log: "Próximo"
previous_log: "Anterior"
share_ai_conversation:
name: "Compartilhar conversação com IA"
title: "Compartilhar esta conversa com IA publicamente"
ai_label: "IA"
ai_title: "Conversação com IA"
share_modal:
title: "Copiar conversa com IA"
copy: "Copiar"
context: "Interações para compartilhar:"
share_tip: "Como alternativa, você pode compartilhar toda esta conversa"
bot_names:
fake: "Bot de teste simulado"
claude-3-opus: "Opus Claude 3"
claude-3-sonnet: "Sonnet Claude 3"
claude-3-haiku: "Haiku Claude 3"
cohere-command-r-plus: "Command R Plus Cohere"
gpt-4: "GPT-4"
gpt-4-turbo: "GPT-4 Turbo"
gpt-4o: "GPT-4 Omni"
gpt-3:
5-turbo: "GPT-3.5"
claude-2: "Claude 2"
gemini-1:
5-pro: "Gemini"
mixtral-8x7B-Instruct-V0:
"1": "Mixtral-8x7B V0.1"
sentiments:
dashboard:
title: "Sentimento"
summarization:
chat:
title: "Resumir mensagens"
description: "Selecione uma opção abaixo para resumir a conversa enviada durante o período desejado."
summarize: "Resumir"
since:
one: "Última hora"
other: "Últimas %{count} horas"
topic:
title: "Resumo do tópico"
close: "Fechar painel de resumo"
review:
types:
reviewable_ai_post:
title: "Postagem sinalizada com IA"
reviewable_ai_chat_message:
title: "Mensagem de chat sinalizada com IA"