description:"Durante o teste, você pode querer executar o relatório com base no histórico, use o deslocamento para iniciar o relatório numa data anterior"
instructions:
label:"Instruções"
description:"As instruções fonrecidas ao modelo de linguagem grande"
sample_size:
label:"Tamanho da amostra"
description:"A quantidade de postagens para fazer amostragem para o relatório"
tokens_per_post:
label:"Tokens por postagem"
description:"A quantidade de tokens de llm para usar por postagem"
model:
label:"Modelo"
description:"O LLM para usar na geração de relatórios"
no_llm_selected:"Nenhum modelo de linguagem selecionado"
max_context_posts:"Máximo de postagens de contexto"
max_context_posts_help:"A quantidade máxima de postagens para usar como contexto para a IA ao responder ao(à) usuário(a). (deixar vazio para padrão)"
vision_enabled:Visão ativada
vision_enabled_help:Ative para a IA tentar entender as imagens postadas pelos(as) usuários(as) no tópico conforme o modelo usado na visão compatível. É compatível com os modelos mais recentes do Anthropic, Google e OpenAI.
vision_max_pixels:Tamanho de imagem compatível
vision_max_pixel_sizes:
low:Baixa qualidade - menor custo (256x256)
medium:Média qualidade (512x512)
high:Alta qualidade - mais lento (1024x1024)
tool_details:Exibir detalhes da ferramenta
tool_details_help:Serão exibidos aos(às) usuários(as) finais as ferramentas nas quais o modelo de linguagem foi acionado.
mentionable:Permitir menções
mentionable_help:Ative para que os(as) usuários(as) nos grupos permitidos possam mencionar este(a) usuário(a) nas postagens. A IA responderá como esta persona.
create_user_help:Como alternativa, você poderá anexar um(a) usuário(a) a esta persona. Se fizer isso, a IA usará este(a) usuário(a) para responder aos pedidos.
default_llm:Modelo de linguagem padrão
default_llm_help:O modelo de linguagem padrão a ser usado para esta persona. É obrigatório se você quiser mencionar a persona em postagens públicas.
question_consolidator_llm:Modelo de linguagem para consolidador de pergunta
question_consolidator_llm_help:O modelo de linguagem a ser usado para o consolidador de pergunta. Para economizar, você pode escolher um modelo menos robusto.
temperature_help:A Temperatura a ser usada para o LLM, aumente para incrementar a criatividade (deixe vazio para usar o padrão do modelo, que geralmente é um valor que varia entre 0.0 e 2.0)
top_p:P Máximo
top_p_help:O P Máximo a ser usado para o LLM, aumente para incrementar o fator aleatório (deixe vazio para usar o padrão do modelo, que geralmente é um valor que varia entre 0.0 e 1.0)
priority_help:Personas de prioridade são exibidas aos(às) usuários(as) no topo da lista de personas. Se várias personas tiverem prioridade, serão escolhidas em ordem alfabética.
rag_conversation_chunks:"Pesquisar Pedaços de Conversa"
rag_conversation_chunks_help:"O número de pedaços a serem usados para pesquisas de modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar."
what_are_personas:"O que são personas de IA?"
no_persona_selected:|
Personas de IA são um recurso poderoso que permite personalizar o comportamento do mecanismo de IA no seu fórum do Discourse. Funcionam como uma "mensagem de sistema" que orienta as respostas e interações da IA, ajudando a criar uma experiência mais personalizada e envolvente para o(a) usuário(a).
#### Por que usar personas de IA?
Com as personas de IA, você pode personalizar o comportamento da IA para se adequar melhor ao contexto e tom do seu fórum. Uma IA mais formal para um cenário profissional, uma mais casual para um fórum de comunidade ou até mesmo um personagem específico para um jogo de interpretação, não importa:as personas de IA proporcionam flexibilidade para fazer tudo isso.
#### Acesso específico de grupo a personas de IA
Além disso, você pode configurar para que determinados grupos de usuários(as) tenham acesso a personas específicas. Ou seja, você pode ter diferentes comportamentos de IA para seções distintas do seu fórum, melhorando ainda mais a diversidade e riqueza das interações da sua comunidade.
rag_chunk_tokens_help:"O número de tokens a ser usado para cada pedaço no modelo RAG. Aumente para incrementar a quantidade de contexto que a IA pode usar. (Altere para indexar novamente todos os envios)"
rag_chunk_overlap_tokens:"Enviar Tokens de Sobreposição de Parte"
rag_chunk_overlap_tokens_help:"A quantidade de tokens a serem sobrepostos entre as partes no modelo RAG. (Altere para indexar novamente todos os envios)"
failure:"Erro retornado ao tentar entrar em contato com o modelo: %{error}"
hints:
max_prompt_tokens:"Quantidade máxima de tokens para o prompt. Como a regra do polegar, deve ser 50% da janela de contexto do modelo."
name:"Incluímos na chamada da API para especificar qual modelo será usado."
vision_enabled:"Ative para a IA tentar entender as imagens. Depende do modelo usado na visão compatível. É compatível com os modelos mais recentes do Anthropic, Google e OpenAI."
prompt:"Esta postagem contém imagens sem legendas. Gostaria de ativar legendas automáticas com IA em envios de imagem? (Altere nas preferências mais tarde)"