description:"Пользователь, который отправит отчет"
receivers:
label:"Получатели"
description:"Пользователи, которые получат отчет (электронные письма будут отправлены по электронной почте, имена пользователей будут отправлены в личку)"
description:"Отключает уведомления, которые может генерировать отчет, путем преобразования их в контент. При этом будут изменены упоминания и внутренние ссылки."
max_context_posts_help:"Максимальное количество публикаций, которое будет использоваться в качестве контекста для AI при ответе пользователю. (Пусто по умолчанию)"
vision_enabled_help:Если этот параметр включен, AI будет пытаться анализировать изображения, размещаемые пользователями в теме, при условии, что используемая модель поддерживает визуальное распознавание изображений. Поддерживается новейшими моделями от Anthropic, Google и OpenAI.
vision_max_pixels:Поддерживаемый размер изображения
vision_max_pixel_sizes:
low:Низкое качество — самое дешевое (256×256).
medium:Среднее качество (512 × 512)
high:Высокое качество — самое медленное (1024 × 1024)
tool_details:Показать сведения об инструменте
tool_details_help:Покажет конечным пользователям сведения о том, какие инструменты запустила языковая модель.
mentionable:Разрешить упоминания
mentionable_help:Если этот параметр включен, пользователи в разрешенных группах смогут упоминать этого пользователя в публикациях, AI будет отвечать от имени этой персоны.
create_user_help:При желании к этой персоне можно прикрепить пользователя. В этом случае AI будет использовать этого пользователя для ответа на запросы.
default_llm:Языковая модель по умолчанию
default_llm_help:Языковая модель по умолчанию, используемая для этой персоны. Требуется, если вы хотите упомянуть персону в общедоступных публикациях.
question_consolidator_llm:Языковая модель для консолидатора вопросов
question_consolidator_llm_help:Языковая модель, используемая для консолидатора вопросов; вы можете выбрать менее ресурсозатратную модель для экономии средств.
system_prompt:Системый запрос
allow_chat:"Разрешить чат"
allow_chat_help:"Если параметр включен, пользователи в разрешенных группах смогут отправлять личные сообщения этой персоне"
temperature_help:Температура — параметр для LLM, его увеличение приводит к повышению креативности (оставьте пустым, чтобы использовать настройки модели по умолчанию, стандартные значения от 0.0 до 2.0)
top_p:Top P
top_p_help:Top P — параметр для LLM, его увеличение приводит к увеличению случайности (оставьте пустым, чтобы использовать настройки модели по умолчанию, стандартные значения от 0.0 до 1.0)
priority_help:Приоритетные персоны показываются пользователям вверху списка персон. Если приоритет имеют несколько персон, они будут отсортированы в алфавитном порядке.
rag_conversation_chunks:"Фрагменты разговора для поиска"
rag_conversation_chunks_help:"Количество фрагментов для поиска в модели RAG. Увеличьте это значение, чтобы увеличить объем контекста, который может использовать AI."
what_are_personas:"Что такое AI-персоны?"
no_persona_selected:|
AI-персоны — это мощная функция, с помощью которой можно настроить поведение AI-движка на вашем форуме Discourse. Они действуют как «системное сообщение», которое направляет реакции и взаимодействия AI, помогая создать более персонализированный и привлекательный пользовательский опыт.
#### Зачем использовать AI-персоны?
С помощью AI-персон вы можете настроить поведение AI так, чтобы оно лучше соответствовало контексту и тону вашего форума. AI будет таким, как нужно вам:формальным для профессиональной среды, непринужденным для форума сообщества или даже воплощать особенности поведения конкретного персонажа ролевой игры.
#### Доступ для отдельных групп к AI-персонам
Кроме того, вы можете настроить доступ определенных групп пользователей к конкретным персонам. Это означает, что вы можете использовать различное поведение AI для разных разделов форума, что способствует разнообразию и богатству взаимодействия с вашим сообществом.
rag_chunk_tokens_help:"Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)"
rag_chunk_overlap_tokens_help:"Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)"
one:"Эта модель сейчас используется в параметре «%{settings}». В случае неправильной настройки функция не будет работать должным образом."
few:"Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
many:"Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
other:"Эта модель сейчас используется в следующих параметрах: %{settings}. В случае неправильной настройки функции не будут работать должным образом. "
failure:"При попытке связаться с моделью возникла ошибка: %{error}"
hints:
max_prompt_tokens:"Максимальное количество токенов для запроса. Как правило, это значение должно составлять 50% от контекстного окна модели."
name:"Мы включаем эти данные в вызов API, чтобы указать, какую модель будем использовать."
vision_enabled:"Если этот параметр включен, AI будет пытаться анализировать изображения, при условии, что используемая модель поддерживает визуальное распознавание изображений. Поддерживается новейшими моделями от Anthropic, Google и OpenAI."
prompt:"Эта публикация содержит изображения без подписей. Хотите включить автоматические подписи от AI к загружаемым изображениям? (Это можно будет изменить в настройках позже)"