324 lines
20 KiB
YAML
324 lines
20 KiB
YAML
# WARNING: Never edit this file.
|
||
# It will be overwritten when translations are pulled from Crowdin.
|
||
#
|
||
# To work with us on translations, join this project:
|
||
# https://translate.discourse.org/
|
||
|
||
ru:
|
||
admin_js:
|
||
admin:
|
||
site_settings:
|
||
categories:
|
||
discourse_ai: "AI для Discourse"
|
||
js:
|
||
discourse_automation:
|
||
scriptables:
|
||
llm_report:
|
||
fields:
|
||
sender:
|
||
label: "Отправитель"
|
||
description: "Пользователь, который отправит отчет"
|
||
receivers:
|
||
label: "Получатели"
|
||
description: "Пользователи, которые получат отчет (электронные письма будут отправлены по электронной почте, имена пользователей будут отправлены в личку)"
|
||
topic_id:
|
||
label: "ID темы"
|
||
title:
|
||
label: "Название"
|
||
description: "Название отчета"
|
||
days:
|
||
label: "Дни"
|
||
description: "Временной интервал отчета"
|
||
offset:
|
||
label: "Смещение"
|
||
description: "При тестировании вы можете запускать отчет с учетом исторических данных, используя смещение начала отчета на более раннюю дату."
|
||
instructions:
|
||
label: "Инструкции"
|
||
description: "Инструкции, предоставленные для большой языковой модели"
|
||
sample_size:
|
||
label: "Размер выборки"
|
||
description: "Количество выбранных публикаций для отчета"
|
||
tokens_per_post:
|
||
label: "Число лексем на публикацию"
|
||
model:
|
||
label: "Модель"
|
||
description: "LLM, используемая для создания отчетов"
|
||
categories:
|
||
label: "Категории"
|
||
description: "Фильтровать темы только по этим категориям"
|
||
tags:
|
||
label: "Теги"
|
||
description: "Фильтровать темы только по этим тегам"
|
||
exclude_tags:
|
||
label: "Исключить теги"
|
||
description: "Исключить темы с этими тегами"
|
||
exclude_categories:
|
||
label: "Исключить категории"
|
||
description: "Исключить темы из этих категорий"
|
||
allow_secure_categories:
|
||
label: "Разрешить защищенные категории"
|
||
description: "Разрешить создание отчета по темам в защищенных категориях"
|
||
suppress_notifications:
|
||
label: "Отключение уведомлений"
|
||
description: "Отключает уведомления, которые может генерировать отчет, путем преобразования их в контент. При этом будут изменены упоминания и внутренние ссылки."
|
||
debug_mode:
|
||
label: "Режим отладки"
|
||
description: "Включить режим отладки для просмотра необработанных входных и выходных данных LLM."
|
||
priority_group:
|
||
label: "Приоритетная группа"
|
||
description: "Приоритизировать контент из этой группы в отчете"
|
||
temperature:
|
||
label: "Температура"
|
||
top_p:
|
||
label: "Top P"
|
||
description: "Top P — параметр LLM, его увеличение приводит к увеличению случайности (0, чтобы использовать настройки модели по умолчанию)"
|
||
llm_triage:
|
||
fields:
|
||
system_prompt:
|
||
label: "Системный запрос"
|
||
description: "Подсказка для приоритизации. Для ответа используйте одно слово, которое можно применить для запуска действия."
|
||
search_for_text:
|
||
label: "Поиск текста"
|
||
category:
|
||
label: "Категория"
|
||
description: "Категория, применяемая к теме"
|
||
tags:
|
||
label: "Теги"
|
||
description: "Теги, применяемые к теме"
|
||
canned_reply:
|
||
label: "Ответ"
|
||
canned_reply_user:
|
||
label: "Ответ пользователя"
|
||
description: "Имя пользователя для публикации шаблонного ответа"
|
||
hide_topic:
|
||
label: "Скрыть тему"
|
||
model:
|
||
label: "Модель"
|
||
description: "Языковая модель для приоритизации"
|
||
discourse_ai:
|
||
title: "AI"
|
||
modals:
|
||
select_option: "Выберите вариант..."
|
||
ai_persona:
|
||
back: "Назад"
|
||
name: "Название"
|
||
edit: "Изменить"
|
||
description: "Описание"
|
||
no_llm_selected: "Языковая модель не выбрана"
|
||
max_context_posts_help: "Максимальное количество публикаций, которое будет использоваться в качестве контекста для AI при ответе пользователю. (Пусто по умолчанию)"
|
||
vision_enabled: Визуальное распознавание включено
|
||
vision_enabled_help: Если этот параметр включен, AI будет пытаться анализировать изображения, размещаемые пользователями в теме, при условии, что используемая модель поддерживает визуальное распознавание изображений. Поддерживается новейшими моделями от Anthropic, Google и OpenAI.
|
||
vision_max_pixels: Поддерживаемый размер изображения
|
||
tool_details_help: Покажет конечным пользователям сведения о том, какие инструменты запустила языковая модель.
|
||
mentionable_help: Если этот параметр включен, пользователи в разрешенных группах смогут упоминать этого пользователя в публикациях, AI будет отвечать от имени этой персоны.
|
||
user: Пользователь
|
||
create_user_help: При желании к этой персоне можно прикрепить пользователя. В этом случае AI будет использовать этого пользователя для ответа на запросы.
|
||
default_llm_help: Языковая модель по умолчанию, используемая для этой персоны. Требуется, если вы хотите упомянуть персону в общедоступных публикациях.
|
||
question_consolidator_llm: Языковая модель для консолидатора вопросов
|
||
question_consolidator_llm_help: Языковая модель, используемая для консолидатора вопросов; вы можете выбрать менее ресурсозатратную модель для экономии средств.
|
||
save: "Сохранить"
|
||
enabled: "Включено?"
|
||
allowed_groups: "Разрешённые группы"
|
||
confirm_delete: "Точно удалить эту персону?"
|
||
title: "Персоны"
|
||
short_title: "Персоны"
|
||
delete: "Удалить"
|
||
temperature: "Температура"
|
||
top_p: "Top P"
|
||
top_p_help: "Top P — параметр для LLM, его увеличение приводит к увеличению случайности (оставьте пустым, чтобы использовать настройки модели по умолчанию, стандартные значения от 0.0 до 1.0)"
|
||
priority: "Приоритет"
|
||
priority_help: "Приоритетные персоны показываются пользователям вверху списка персон. Если приоритет имеют несколько персон, они будут отсортированы в алфавитном порядке."
|
||
rag_conversation_chunks_help: "Количество фрагментов для поиска в модели RAG. Увеличьте это значение, чтобы увеличить объем контекста, который может использовать AI."
|
||
rag:
|
||
options:
|
||
rag_chunk_tokens_help: "Количество токенов для каждого фрагмента в модели RAG. Увеличьте, чтобы расширить объем контекста для AI. (Изменение параметра приведет к переиндексации всех загрузок)"
|
||
rag_chunk_overlap_tokens_help: "Количество токенов для перекрытия между фрагментами в модели RAG. (Изменение параметра приведет к переиндексации всех загрузок)"
|
||
uploads:
|
||
title: "Загрузки"
|
||
filter: "Фильтровать загрузки"
|
||
indexed: "Проиндексированные"
|
||
indexing: "Индексируются"
|
||
uploaded: "Готовые к индексированию"
|
||
uploading: "Загрузка…"
|
||
remove: "Удалить загрузку"
|
||
tools:
|
||
back: "Назад"
|
||
short_title: "Инструменты"
|
||
name: "Название"
|
||
name_help: "Уникальное имя инструмента, используемое языковой моделью"
|
||
description: "Описание"
|
||
description_help: "Четкое описание назначения инструмента для языковой модели"
|
||
summary: "Сводка"
|
||
summary_help: "Краткое описание назначения инструментов для отображения конечным пользователям"
|
||
script: "Скрипт"
|
||
parameters: "Параметры"
|
||
save: "Сохранить"
|
||
add_parameter: "Добавить параметр"
|
||
parameter_required: "Обязательное"
|
||
parameter_enum: "Перечисление"
|
||
enum_value: "Значение перечисления"
|
||
add_enum_value: "Добавить значение перечисления"
|
||
edit: "Изменить"
|
||
delete: "Удалить"
|
||
saved: "Инструмент сохранен"
|
||
presets: "Выберите пресет..."
|
||
confirm_delete: "Действительно удалить этот инструмент?"
|
||
next:
|
||
title: "Далее"
|
||
llms:
|
||
short_title: "Большие языковые модели"
|
||
no_llms: "Еще нет LLM"
|
||
display_name: "Название"
|
||
tokenizer: "Токенизатор"
|
||
max_prompt_tokens: "Количество токенов для запроса"
|
||
url: "URL-адрес сервиса, где размещена модель"
|
||
api_key: "API-ключ сервиса, где размещена модель"
|
||
vision_enabled: "Визуальное распознавание включено"
|
||
save: "Сохранить"
|
||
edit: "Изменить"
|
||
back: "Назад"
|
||
confirm_delete: Действительно удалить эту модель?
|
||
delete: Удалить
|
||
usage:
|
||
ai_summarization: "Сводка"
|
||
preconfigured_llms: "Выберите LLM"
|
||
next:
|
||
title: "Далее"
|
||
tests:
|
||
running: "Запуск теста..."
|
||
success: "Успех!"
|
||
failure: "При попытке связаться с моделью возникла ошибка: %{error}"
|
||
hints:
|
||
max_prompt_tokens: "Максимальное количество токенов для запроса. Как правило, это значение должно составлять 50% от контекстного окна модели."
|
||
vision_enabled: "Если этот параметр включен, AI будет пытаться анализировать изображения, при условии, что используемая модель поддерживает визуальное распознавание изображений. Поддерживается новейшими моделями от Anthropic, Google и OpenAI."
|
||
providers:
|
||
aws_bedrock: "AWS Bedrock"
|
||
anthropic: "Anthropic"
|
||
vllm: "vLLM"
|
||
hugging_face: "Hugging Face"
|
||
cohere: "Cohere"
|
||
open_ai: "OpenAI"
|
||
google: "Google"
|
||
azure: "Azure"
|
||
ollama: "Ollama"
|
||
fake: "Указать продолжительность"
|
||
related_topics:
|
||
pill: "Связанные"
|
||
ai_helper:
|
||
title: "Предложить изменения с помощью AI"
|
||
description: "Выберите один из вариантов ниже, и AI предложит новую версию текста."
|
||
selection_hint: "Подсказка: чтобы переписать часть текста, выделите нужный фрагмент до запуска помощника."
|
||
suggest: "Подсказки от AI"
|
||
missing_content: "Введите контент для генерации подсказок."
|
||
context_menu:
|
||
trigger: "Спросить AI"
|
||
loading: "AI генерирует ответ"
|
||
cancel: "Отменить"
|
||
regen: "Попробовать снова"
|
||
confirm: "Подтвердить"
|
||
discard: "Отменить"
|
||
custom_prompt:
|
||
placeholder: "Введите пользовательский запрос..."
|
||
translate_prompt: "Перевести на %{language}"
|
||
post_options_menu:
|
||
trigger: "Спросить AI"
|
||
title: "Спросить AI"
|
||
loading: "AI генерирует ответ"
|
||
close: "Закрыть"
|
||
copy: "Копировать"
|
||
copied: "Скопировано!"
|
||
cancel: "Отменить"
|
||
insert_footnote: "Добавить сноску"
|
||
footnote_credits: "Объяснение от AI"
|
||
thumbnail_suggestions:
|
||
select: "Выбрать"
|
||
selected: "Выбрано"
|
||
image_caption:
|
||
button_label: "Подпись к изображению от AI"
|
||
generating: "Создание подписи..."
|
||
credits: "Подпись к изображению от AI"
|
||
save_caption: "Сохранить"
|
||
automatic_caption_loading: "Создание подписей к изображениям..."
|
||
automatic_caption_dialog:
|
||
confirm: "Включить"
|
||
cancel: "Больше не спрашивать"
|
||
reviewables:
|
||
model_used: "Использованная модель:"
|
||
accuracy: "Точность:"
|
||
embeddings:
|
||
semantic_search: "Темы (семантика)"
|
||
semantic_search_loading: "Поиск дополнительных результатов с помощью AI"
|
||
semantic_search_results:
|
||
toggle: "Показать результаты (%{count}), найденные с помощью AI"
|
||
toggle_hidden: "Скрыть результаты (%{count}), найденные с помощью AI"
|
||
none: "К сожалению, AI-поиск не нашел подходящих тем"
|
||
ai_generated_result: "Результат поиска найден с помощью AI"
|
||
quick_search:
|
||
suffix: "во всех темах и публикациях с ИИ"
|
||
ai_bot:
|
||
pm_warning: "Сообщения чат-бота с AI регулярно отслеживаются модераторами."
|
||
cancel_streaming: "Прекратить отвечать"
|
||
default_pm_prefix: "[Личные сообщения от AI-бота без названия]"
|
||
shortcut_title: "Начать личный чат с AI-ботом"
|
||
share: "Копировать разговор с AI"
|
||
conversation_shared: "Разговор скопирован"
|
||
debug_ai: "Просмотреть необработанные запросы и ответы AI"
|
||
debug_ai_modal:
|
||
title: "Просмотр взаимодействий с AI"
|
||
copy_request: "Копировать запрос"
|
||
copy_response: "Копировать ответ"
|
||
request_tokens: "Токены запроса:"
|
||
response_tokens: "Токены ответа:"
|
||
request: "Запрос"
|
||
response: "Ответ"
|
||
next_log: "Далее"
|
||
previous_log: "Старое значение"
|
||
share_ai_conversation:
|
||
name: "Поделиться разговором с AI"
|
||
title: "Поделитесь этим разговором с AI публично"
|
||
ai_label: "AI"
|
||
ai_title: "Разговор с AI"
|
||
share_modal:
|
||
title: "Копировать разговор с AI"
|
||
copy: "Копировать"
|
||
context: "Поделиться взаимодействиями:"
|
||
share_tip: "Вы также можете поделиться всем разговором"
|
||
bot_names:
|
||
fake: "Поддельный тестовый бот"
|
||
claude-3-opus: "Claude 3 Opus"
|
||
claude-3-sonnet: "Claude 3 Sonnet"
|
||
claude-3-haiku: "Claude 3 Haiku"
|
||
cohere-command-r-plus: "Cohere Command R Plus"
|
||
gpt-4: "GPT-4"
|
||
gpt-4-turbo: "GPT-4 Turbo"
|
||
gpt-4o: "GPT-4 Omni"
|
||
gpt-3:
|
||
5-turbo: "GPT-3.5"
|
||
claude-2: "Claude 2"
|
||
gemini-1:
|
||
5-pro: "Gemini"
|
||
mixtral-8x7B-Instruct-V0:
|
||
"1": "Mixtral-8x7B V0.1"
|
||
sentiments:
|
||
dashboard:
|
||
title: "Настроение"
|
||
summarization:
|
||
chat:
|
||
title: "Делать сводку сообщений"
|
||
description: "Выберите ниже вариант сводки разговора, отправленного в указанный период."
|
||
summarize: "Сводка"
|
||
since:
|
||
one: "Последний %{count} час"
|
||
few: "Последние %{count} часа"
|
||
many: "Последние %{count} часов"
|
||
other: "Последние %{count} часа"
|
||
topic:
|
||
title: "Сводка по теме"
|
||
close: "Закрыть панель сводки"
|
||
review:
|
||
types:
|
||
reviewable_ai_post:
|
||
title: "Публикация с жалобой от AI"
|
||
reviewable_ai_chat_message:
|
||
title: "Сообщение в чате с жалобой от AI"
|