322 lines
14 KiB
YAML
322 lines
14 KiB
YAML
# WARNING: Never edit this file.
|
|
# It will be overwritten when translations are pulled from Crowdin.
|
|
#
|
|
# To work with us on translations, join this project:
|
|
# https://translate.discourse.org/
|
|
|
|
pt_BR:
|
|
admin_js:
|
|
admin:
|
|
site_settings:
|
|
categories:
|
|
discourse_ai: "Discourse IA"
|
|
js:
|
|
discourse_automation:
|
|
scriptables:
|
|
llm_report:
|
|
fields:
|
|
sender:
|
|
label: "Remetente"
|
|
description: "O(a) usuário(a) enviará o relatório"
|
|
receivers:
|
|
label: "Destinatários(as)"
|
|
description: "Os(as) usuários(as) que receberão o relatório (os e-mails serão enviados diretamente por e-mail, e os nomes de usuário(a) por MP)"
|
|
topic_id:
|
|
label: "ID do tópico"
|
|
title:
|
|
label: "Título"
|
|
description: "O título do relatório"
|
|
days:
|
|
label: "Dias"
|
|
description: "O tempo de duração do relatório"
|
|
offset:
|
|
label: "Deslocamento"
|
|
description: "Durante o teste, você pode querer executar o relatório com base no histórico, use o deslocamento para iniciar o relatório numa data anterior"
|
|
instructions:
|
|
label: "Instruções"
|
|
description: "As instruções fonrecidas ao modelo de linguagem grande"
|
|
sample_size:
|
|
label: "Tamanho da amostra"
|
|
description: "A quantidade de postagens para fazer amostragem para o relatório"
|
|
tokens_per_post:
|
|
label: "Tokens por postagem"
|
|
model:
|
|
label: "Modelo"
|
|
description: "O LLM para usar na geração de relatórios"
|
|
categories:
|
|
label: "Categorias"
|
|
description: "Filtrar tópicos apenas para estas categorias"
|
|
tags:
|
|
label: "Etiquetas"
|
|
description: "Filtrar tópicos apenas para estas etiquetas"
|
|
exclude_tags:
|
|
label: "Excluir etiquetas"
|
|
description: "Excluir tópicos com estas etiquetas"
|
|
exclude_categories:
|
|
label: "Excluir categorias"
|
|
description: "Excluir tópicos com estas categorias"
|
|
allow_secure_categories:
|
|
label: "Permitir categorias seguras"
|
|
description: "Permitir que o relatório seja gerado para tópicos em categorias seguras"
|
|
suppress_notifications:
|
|
label: "Suprimir notificações"
|
|
description: "Suprima notificações que podem ser geradas pelo relatório ao transformar em conteúdo. As menções e links internos serão remapeados."
|
|
debug_mode:
|
|
label: "Modo de depuração"
|
|
description: "Ativar o modo de depuração para ver as entradas e saídas não processadas do LLM"
|
|
priority_group:
|
|
label: "Grupo de prioridade"
|
|
description: "Priorizar o conteúdo deste grupo no relatório"
|
|
temperature:
|
|
label: "Temperatura"
|
|
top_p:
|
|
label: "Maior P"
|
|
description: "P Máximo para usar no LLM, aumente para incrementar o fator aleatório (0 para usar o padrão do modelo)"
|
|
llm_triage:
|
|
fields:
|
|
system_prompt:
|
|
label: "Prompt do sistema"
|
|
description: "O prompt que será usado para triagem, verifique se responderá com uma única palavra que pode ser usada para acionar a ação"
|
|
search_for_text:
|
|
label: "Pesquisar texto"
|
|
category:
|
|
label: "Categoria"
|
|
description: "Categoria para aplicar no tópico"
|
|
tags:
|
|
label: "Etiquetas"
|
|
description: "Etiquetas para aplicar no tópico"
|
|
canned_reply:
|
|
label: "Responder"
|
|
canned_reply_user:
|
|
label: "Usuário(a) de resposta"
|
|
description: "O nome de usuário(a) para postar a resposta pré-preparada"
|
|
hide_topic:
|
|
label: "Ocultar tópico"
|
|
model:
|
|
label: "Modelo"
|
|
description: "Modelo de linguagem usado para triagem"
|
|
discourse_ai:
|
|
title: "IA"
|
|
modals:
|
|
select_option: "Selecione uma opção..."
|
|
ai_persona:
|
|
back: "Voltar"
|
|
name: "Nome"
|
|
edit: "Editar"
|
|
description: "Descrição"
|
|
no_llm_selected: "Nenhum modelo de linguagem selecionado"
|
|
max_context_posts_help: "A quantidade máxima de postagens para usar como contexto para a IA ao responder ao(à) usuário(a). (deixar vazio para padrão)"
|
|
vision_enabled: Visão ativada
|
|
vision_enabled_help: Ative para a IA tentar entender as imagens postadas pelos(as) usuários(as) no tópico conforme o modelo usado na visão compatível. É compatível com os modelos mais recentes do Anthropic, Google e OpenAI.
|
|
vision_max_pixels: Tamanho de imagem compatível
|
|
tool_details_help: Serão exibidos aos(às) usuários(as) finais as ferramentas nas quais o modelo de linguagem foi acionado.
|
|
mentionable_help: Ative para que os(as) usuários(as) nos grupos permitidos possam mencionar este(a) usuário(a) nas postagens. A IA responderá como esta persona.
|
|
user: Usuário(a)
|
|
create_user_help: Como alternativa, você poderá anexar um(a) usuário(a) a esta persona. Se fizer isso, a IA usará este(a) usuário(a) para responder aos pedidos.
|
|
default_llm_help: O modelo de linguagem padrão a ser usado para esta persona. É obrigatório se você quiser mencionar a persona em postagens públicas.
|
|
question_consolidator_llm: Modelo de linguagem para consolidador de pergunta
|
|
question_consolidator_llm_help: O modelo de linguagem a ser usado para o consolidador de pergunta. Para economizar, você pode escolher um modelo menos robusto.
|
|
save: "Salvar"
|
|
enabled: "Ativado(a)?"
|
|
allowed_groups: "Grupos permitidos"
|
|
confirm_delete: "Você tem certeza de que deseja excluir esta persona?"
|
|
title: "Personas"
|
|
short_title: "Personas"
|
|
delete: "Excluir"
|
|
temperature: "Temperatura"
|
|
top_p: "P Máximo"
|
|
top_p_help: "O P Máximo a ser usado para o LLM, aumente para incrementar o fator aleatório (deixe vazio para usar o padrão do modelo, que geralmente é um valor que varia entre 0.0 e 1.0)"
|
|
priority: "Prioridade"
|
|
priority_help: "Personas de prioridade são exibidas aos(às) usuários(as) no topo da lista de personas. Se várias personas tiverem prioridade, serão escolhidas em ordem alfabética."
|
|
rag_conversation_chunks_help: "O número de pedaços a serem usados para pesquisas de modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar."
|
|
rag:
|
|
options:
|
|
rag_chunk_tokens_help: "O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
|
|
rag_chunk_overlap_tokens_help: "A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
|
|
uploads:
|
|
title: "Envios"
|
|
filter: "Filtrar envios"
|
|
indexed: "Indexado(a)"
|
|
indexing: "Indexação"
|
|
uploaded: "Pronto(a) para indexação"
|
|
uploading: "Enviando..."
|
|
remove: "Remover envio"
|
|
tools:
|
|
back: "Voltar"
|
|
short_title: "Ferramentas"
|
|
name: "Nome"
|
|
name_help: "O nome exclusivo da ferramenta conforme usado pelo modelo de linguagem"
|
|
description: "Descrição"
|
|
description_help: "Descrição clara da finalidade da ferramenta para o modelo de linguagem"
|
|
summary: "Resumo"
|
|
summary_help: "Resumo das finalidades das ferramentas a ser exibido para usuários(as) finais"
|
|
script: "Script"
|
|
parameters: "Parâmetros"
|
|
save: "Salvar"
|
|
add_parameter: "Adicionar parâmero"
|
|
parameter_required: "Necessário(a)"
|
|
parameter_enum: "Enumeração"
|
|
enum_value: "Valor da enumeração"
|
|
add_enum_value: "Adicionar valor da enumeração"
|
|
edit: "Editar"
|
|
delete: "Excluir"
|
|
saved: "Ferramenta salva"
|
|
presets: "Selecione uma predefinição..."
|
|
confirm_delete: "Tem certeza de que deseja excluir esta ferramenta?"
|
|
next:
|
|
title: "Próximo"
|
|
llms:
|
|
short_title: "LLMs"
|
|
no_llms: "Nenhum LLM ainda"
|
|
display_name: "Nome"
|
|
tokenizer: "Tokenizador"
|
|
max_prompt_tokens: "Quantidade de tokens para o prompt"
|
|
url: "URL do serviço da hospedagem do modelo"
|
|
api_key: "Chave de API do serviço da hospedagem do modelo"
|
|
vision_enabled: "Visão ativada"
|
|
save: "Salvar"
|
|
edit: "Editar"
|
|
back: "Voltar"
|
|
confirm_delete: Tem certeza de que deseja excluir este modelo?
|
|
delete: Excluir
|
|
usage:
|
|
ai_summarization: "Resumir"
|
|
preconfigured_llms: "Selecione sua LLM"
|
|
next:
|
|
title: "Próximo"
|
|
tests:
|
|
running: "Executando teste..."
|
|
success: "Sucesso!"
|
|
failure: "Erro retornado ao tentar entrar em contato com o modelo: %{error}"
|
|
hints:
|
|
max_prompt_tokens: "Quantidade máxima de tokens para o prompt. Como a regra do polegar, deve ser 50% da janela de contexto do modelo."
|
|
vision_enabled: "Ative para a IA tentar entender as imagens. Depende do modelo usado na visão compatível. É compatível com os modelos mais recentes do Anthropic, Google e OpenAI."
|
|
providers:
|
|
aws_bedrock: "AWS Bedrock"
|
|
anthropic: "Anthropic"
|
|
vllm: "vLLM"
|
|
hugging_face: "Hugging Face"
|
|
cohere: "Cohere"
|
|
open_ai: "OpenAI"
|
|
google: "Google"
|
|
azure: "Azure"
|
|
ollama: "Ollama"
|
|
fake: "Personalizados(as)"
|
|
related_topics:
|
|
pill: "Relacionado(a)"
|
|
ai_helper:
|
|
title: "Sugerir alterações com IA"
|
|
description: "Escolha uma das opções abaixo, e a IA irá sugerir uma nova versão do texto."
|
|
selection_hint: "Dica: antes de abrir o ajudante, você pode selecionar uma parte do texto para reescrever apenas ela."
|
|
suggest: "Sugestão com IA"
|
|
missing_content: "Insira conteúdo para gerar sugestões."
|
|
context_menu:
|
|
trigger: "Perguntar à IA"
|
|
loading: "A IA está gerando"
|
|
cancel: "Cancelar"
|
|
regen: "Tentar novamente"
|
|
confirm: "Confirmar"
|
|
discard: "Descartar"
|
|
custom_prompt:
|
|
placeholder: "Insira um prompt personalizado..."
|
|
translate_prompt: "Traduzir para %{language}"
|
|
post_options_menu:
|
|
trigger: "Perguntar à IA"
|
|
title: "Perguntar à IA"
|
|
loading: "A IA está gerando"
|
|
close: "Fechar"
|
|
copy: "Copiar"
|
|
copied: "Copiou!"
|
|
cancel: "Cancelar"
|
|
insert_footnote: "Adicionar nota de rodapé"
|
|
footnote_credits: "Explicação da IA"
|
|
thumbnail_suggestions:
|
|
select: "Selecionar"
|
|
selected: "Selecionado(a)"
|
|
image_caption:
|
|
button_label: "Legenda com IA"
|
|
generating: "Gerando legenda..."
|
|
credits: "Legendado por IA"
|
|
save_caption: "Salvar"
|
|
automatic_caption_loading: "Legendando imagens..."
|
|
automatic_caption_dialog:
|
|
confirm: "Ativar"
|
|
cancel: "Não perguntar novamente"
|
|
reviewables:
|
|
model_used: "Modelo usado:"
|
|
accuracy: "Precisão:"
|
|
embeddings:
|
|
semantic_search: "Tópicos (semântica)"
|
|
semantic_search_loading: "Pesquisando mais resultados usando IA"
|
|
semantic_search_results:
|
|
toggle: "Mostrando %{count} resultados encontrados usando IA"
|
|
toggle_hidden: "Ocultando %{count} resultados encontrados usando IA"
|
|
none: "Desculpe, nossa Pesquisa com IA não achou tópicos correspondentes"
|
|
ai_generated_result: "Resultado de pesquisa encontrado usando IA"
|
|
quick_search:
|
|
suffix: "em todos os tópicos e postagens com IA"
|
|
ai_bot:
|
|
pm_warning: "Todas as mensagens do chatbot de IA são monitoradas regularmente por moderadores(as)."
|
|
cancel_streaming: "Parar resposta"
|
|
default_pm_prefix: "[MP de bot de IA não identificado]"
|
|
shortcut_title: "Iniciar uma MP com bot de IA"
|
|
share: "Copiar conversa com IA"
|
|
conversation_shared: "Conversação copiada"
|
|
debug_ai: "Visualizar resposta e pedido de IA não processado"
|
|
debug_ai_modal:
|
|
title: "Visualizar interação com IA"
|
|
copy_request: "Copiar solicitação"
|
|
copy_response: "Copiar resposta"
|
|
request_tokens: "Tokens de pedido:"
|
|
response_tokens: "Tokens de resposta:"
|
|
request: "Pedir"
|
|
response: "Resposta"
|
|
next_log: "Próximo"
|
|
previous_log: "Anterior"
|
|
share_ai_conversation:
|
|
name: "Compartilhar conversação com IA"
|
|
title: "Compartilhar esta conversa com IA publicamente"
|
|
ai_label: "IA"
|
|
ai_title: "Conversação com IA"
|
|
share_modal:
|
|
title: "Copiar conversa com IA"
|
|
copy: "Copiar"
|
|
context: "Interações para compartilhar:"
|
|
share_tip: "Como alternativa, você pode compartilhar toda esta conversa"
|
|
bot_names:
|
|
fake: "Bot de teste simulado"
|
|
claude-3-opus: "Opus Claude 3"
|
|
claude-3-sonnet: "Sonnet Claude 3"
|
|
claude-3-haiku: "Haiku Claude 3"
|
|
cohere-command-r-plus: "Command R Plus Cohere"
|
|
gpt-4: "GPT-4"
|
|
gpt-4-turbo: "GPT-4 Turbo"
|
|
gpt-4o: "GPT-4 Omni"
|
|
gpt-3:
|
|
5-turbo: "GPT-3.5"
|
|
claude-2: "Claude 2"
|
|
gemini-1:
|
|
5-pro: "Gemini"
|
|
mixtral-8x7B-Instruct-V0:
|
|
"1": "Mixtral-8x7B V0.1"
|
|
sentiments:
|
|
dashboard:
|
|
title: "Sentimento"
|
|
summarization:
|
|
chat:
|
|
title: "Resumir mensagens"
|
|
description: "Selecione uma opção abaixo para resumir a conversa enviada durante o período desejado."
|
|
summarize: "Resumir"
|
|
since:
|
|
one: "Última hora"
|
|
other: "Últimas %{count} horas"
|
|
topic:
|
|
title: "Resumo do tópico"
|
|
close: "Fechar painel de resumo"
|
|
review:
|
|
types:
|
|
reviewable_ai_post:
|
|
title: "Postagem sinalizada com IA"
|
|
reviewable_ai_chat_message:
|
|
title: "Mensagem de chat sinalizada com IA"
|