316 lines
16 KiB
YAML
316 lines
16 KiB
YAML
# WARNING: Never edit this file.
|
||
# It will be overwritten when translations are pulled from Crowdin.
|
||
#
|
||
# To work with us on translations, join this project:
|
||
# https://translate.discourse.org/
|
||
|
||
ja:
|
||
admin_js:
|
||
admin:
|
||
site_settings:
|
||
categories:
|
||
discourse_ai: "Discourse AI"
|
||
js:
|
||
discourse_automation:
|
||
scriptables:
|
||
llm_report:
|
||
fields:
|
||
sender:
|
||
label: "送信者"
|
||
description: "レポートを送信するユーザー"
|
||
receivers:
|
||
label: "受信者"
|
||
description: "レポートを受け取るユーザー (メールはダイレクトメールで送信され、ユーザー名に PM が送信されます)"
|
||
topic_id:
|
||
label: "トピック ID"
|
||
title:
|
||
label: "タイトル"
|
||
description: "レポートのタイトル"
|
||
days:
|
||
label: "日数"
|
||
description: "レポートの期間"
|
||
offset:
|
||
label: "オフセット"
|
||
description: "テスト時にレポートを過去にさかのぼって実行する必要がある場合は、オフセットを使用してレポートをより前の日付から開始します"
|
||
instructions:
|
||
label: "指示"
|
||
description: "大規模言語モデルに提供する指示"
|
||
sample_size:
|
||
label: "サンプルサイズ"
|
||
description: "レポート用にサンプリングする投稿の数"
|
||
tokens_per_post:
|
||
label: "投稿あたりのトークン"
|
||
model:
|
||
label: "モデル"
|
||
description: "レポートの生成に使用する LLM"
|
||
categories:
|
||
label: "カテゴリ"
|
||
description: "トピックをこれらのカテゴリのみにフィルタします"
|
||
tags:
|
||
label: "タグ"
|
||
description: "トピックをこれらのタグのみにフィルタします"
|
||
exclude_tags:
|
||
label: "タグを除外"
|
||
description: "これらのタグが付いたトピックを除外します"
|
||
exclude_categories:
|
||
label: "カテゴリを除外"
|
||
description: "これらのカテゴリのトピックを除外します"
|
||
allow_secure_categories:
|
||
label: "安全なカテゴリを許可する"
|
||
description: "安全なカテゴリに含まれるトピックに対しレポートの生成を許可します"
|
||
suppress_notifications:
|
||
label: "通知を非表示"
|
||
description: "コンテンツに変換することでレポートが生成する可能性のある通知を非表示にします。これにより、メンションと内部リンクが再マッピングされます。"
|
||
debug_mode:
|
||
label: "デバッグモード"
|
||
description: "デバッグモードを有効にして、LLM の生の入力と出力を確認します"
|
||
priority_group:
|
||
label: "優先グループ"
|
||
description: "レポートでこのグループのコンテンツを優先します"
|
||
temperature:
|
||
label: "Temperature"
|
||
top_p:
|
||
label: "Top P"
|
||
description: "LLM に使用する Top P。値を増やすとランダム性が増加します (モデルのデフォルトを使用する場合は 0)"
|
||
llm_triage:
|
||
fields:
|
||
system_prompt:
|
||
label: "システムプロンプト"
|
||
description: "トリアージに使用されるプロンプト。ユーザーがアクションのトリガーに使用できる 1 つの単語でプロンプトが応答できるようにしてください"
|
||
search_for_text:
|
||
label: "テキストを検索する"
|
||
category:
|
||
label: "カテゴリ"
|
||
description: "トピックに適用するカテゴリ"
|
||
tags:
|
||
label: "タグ"
|
||
description: "トピックに適用するタグ"
|
||
canned_reply:
|
||
label: "返信"
|
||
canned_reply_user:
|
||
label: "ユーザーに返信"
|
||
description: "定型返信を投稿するユーザーのユーザー名"
|
||
hide_topic:
|
||
label: "トピックを非表示"
|
||
model:
|
||
label: "モデル"
|
||
description: "トリアージに使用される言語モデル"
|
||
discourse_ai:
|
||
title: "AI"
|
||
modals:
|
||
select_option: "オプションを選択..."
|
||
ai_persona:
|
||
back: "戻る"
|
||
name: "名前"
|
||
edit: "編集"
|
||
description: "説明"
|
||
no_llm_selected: "言語モデルは選択されていません"
|
||
max_context_posts_help: "AI がユーザーに返答するときにコンテキストとして使用する投稿の最大数。(デフォルトの場合は空白)"
|
||
vision_enabled: ビジョン対応
|
||
vision_enabled_help: 有効にすると、AI は、ビジョンのサポートに使用されているモデルに応じてユーザーがトピックに投稿する画像を理解しようとします。Anthropic、Google、および OpenAI の最新モデルでサポートされています。
|
||
vision_max_pixels: サポートされている画像サイズ
|
||
tool_details_help: 言語モデルがトリガーしたツールの詳細をエンドユーザーに表示します。
|
||
mentionable_help: 有効にすると、許可されているグループのユーザーは投稿内でこのユーザーをメンションでき、AI はこのペルソナとして返答します。
|
||
user: ユーザー
|
||
create_user_help: オプションで、このペルソナにユーザーを関連付けられます。その場合、AI はこのユーザーを使用してリクエストに応答します。
|
||
default_llm_help: このペルソナに使用するデフォルトの言語モデル。公開投稿でペルソナをメンションする場合には必須です。
|
||
question_consolidator_llm: 質問統合用の言語モデル
|
||
question_consolidator_llm_help: 質問統合に使用する言語モデル。それほど強力でないモデルを選択してコストを節約することも可能です。
|
||
save: "保存"
|
||
enabled: "有効化?"
|
||
allowed_groups: "許可されたグループ"
|
||
confirm_delete: "このペルソナを削除してもよろしいですか?"
|
||
title: "ペルソナ"
|
||
short_title: "ペルソナ"
|
||
delete: "削除"
|
||
temperature: "Temperature"
|
||
top_p: "Top P"
|
||
top_p_help: "LLM に使用する Top P。値を増やすとランダム性が増加します (モデルのデフォルトを使用する場合は空白にします。一般に 0.0~1.0 の値です)"
|
||
priority: "優先度"
|
||
priority_help: "優先ペルソナはペルソナリストの先頭に表示されます。複数のペルソナが優先されている場合は、アルファベット順に並べ替えられます。"
|
||
rag_conversation_chunks_help: "RAG モデル検索に使用するチャンクの数。値を増やすと、AI が使用できるコンテキストの量が増えます。"
|
||
rag:
|
||
options:
|
||
rag_chunk_tokens_help: "RAG モデルの各チャンクに使用するトークン数。値を増やすと、AI が使用できるコンテキストの数が増加します (変更するとすべてのアップロードのインデックスが再作成されます)"
|
||
rag_chunk_overlap_tokens_help: "RAG モデル内のチャンク間で重複するトークンの数。(変更するとすべてのアップロードのインデックスが再作成されます)"
|
||
uploads:
|
||
title: "アップロード"
|
||
filter: "アップロードをフィルタ"
|
||
indexed: "インデックスを作成しました"
|
||
indexing: "インデックス作成中"
|
||
uploaded: "インデックス作成の準備ができました"
|
||
uploading: "アップロード中..."
|
||
remove: "アップロードを削除"
|
||
tools:
|
||
back: "戻る"
|
||
short_title: "ツール"
|
||
name: "名前"
|
||
name_help: "言語モデルで使用されるツールの一意の名前"
|
||
description: "説明"
|
||
description_help: "言語モデルに対するツールの目的の明確な説明"
|
||
summary: "要約"
|
||
summary_help: "エンドユーザーに表示されるツールの目的の要約"
|
||
script: "スクリプト"
|
||
parameters: "パラメーター"
|
||
save: "保存"
|
||
add_parameter: "パラメーターを追加"
|
||
parameter_required: "必須"
|
||
parameter_enum: "列挙型"
|
||
enum_value: "列挙型値"
|
||
add_enum_value: "列挙型値を追加"
|
||
edit: "編集"
|
||
delete: "削除"
|
||
saved: "ツールが保存されました"
|
||
presets: "プリセットを選択..."
|
||
confirm_delete: "このツールを削除してもよろしいですか?"
|
||
next:
|
||
title: "次へ"
|
||
llms:
|
||
short_title: "LLM"
|
||
no_llms: "まだ LLM がありません"
|
||
display_name: "名前"
|
||
tokenizer: "トークナイザ―"
|
||
max_prompt_tokens: "プロンプトのトークン数"
|
||
url: "モデルをホストするサービスの URL"
|
||
api_key: "モデルをホストするサービスの API キー"
|
||
vision_enabled: "ビジョン対応"
|
||
save: "保存"
|
||
edit: "編集"
|
||
back: "戻る"
|
||
confirm_delete: このモデルを削除してもよろしいですか?
|
||
delete: 削除
|
||
usage:
|
||
ai_summarization: "要約"
|
||
preconfigured_llms: "LLM を選択してください"
|
||
next:
|
||
title: "次へ"
|
||
tests:
|
||
running: "テストを実行中…"
|
||
success: "成功!"
|
||
failure: "モデルに接続しようとした際に、次のエラーが返されました: %{error}"
|
||
hints:
|
||
max_prompt_tokens: "プロンプトのトークンの最大数。目安として、これはモデルのコンテキストウィンドウの 50% です。"
|
||
vision_enabled: "有効にすると、AI は画像を理解しようとします。ビジョンのサポートに使用されているモデルに応じます。Anthropic、Google、および OpenAI の最新モデルでサポートされています。"
|
||
providers:
|
||
aws_bedrock: "AWS Bedrock"
|
||
anthropic: "Anthropic"
|
||
vllm: "vLLM"
|
||
hugging_face: "Hugging Face"
|
||
cohere: "Cohere"
|
||
open_ai: "OpenAI"
|
||
google: "Google"
|
||
azure: "Azure"
|
||
ollama: "Ollama"
|
||
fake: "カスタム"
|
||
related_topics:
|
||
pill: "関連"
|
||
ai_helper:
|
||
title: "AI を使用して変更を提案"
|
||
description: "以下のいずれかのオプションを選択すると、AI が新しいバージョンのテキストを提案します。"
|
||
selection_hint: "ヒント: ヘルパーを開く前にテキストの一部を選択すると、その部分のみを書き換えることもできます。"
|
||
suggest: "AI で提案"
|
||
missing_content: "提案を生成するにはコンテンツを入力してください。"
|
||
context_menu:
|
||
trigger: "AI に尋ねる"
|
||
loading: "AI が生成中です"
|
||
cancel: "キャンセル"
|
||
regen: "やり直す"
|
||
confirm: "確認"
|
||
discard: "破棄"
|
||
custom_prompt:
|
||
placeholder: "カスタムプロンプトを入力してください..."
|
||
translate_prompt: "%{language} に翻訳する"
|
||
post_options_menu:
|
||
trigger: "AI に尋ねる"
|
||
title: "AI に尋ねる"
|
||
loading: "AI が生成中です"
|
||
close: "閉じる"
|
||
copy: "コピー"
|
||
copied: "コピーしました!"
|
||
cancel: "キャンセル"
|
||
insert_footnote: "脚注を追加"
|
||
footnote_credits: "AI による説明"
|
||
thumbnail_suggestions:
|
||
select: "選択"
|
||
selected: "選択済み"
|
||
image_caption:
|
||
button_label: "AI によるキャプション"
|
||
generating: "キャプションを生成中..."
|
||
credits: "AI によるキャプション"
|
||
save_caption: "保存"
|
||
automatic_caption_loading: "画像のキャプションを作成中..."
|
||
automatic_caption_dialog:
|
||
confirm: "有効化"
|
||
cancel: "今後表示しない"
|
||
reviewables:
|
||
model_used: "使用モデル:"
|
||
accuracy: "精度:"
|
||
embeddings:
|
||
semantic_search: "トピック (セマンティック)"
|
||
semantic_search_loading: "AI を使ってさらに多くの結果を検索中"
|
||
semantic_search_results:
|
||
toggle: "AI で見つかった %{count} 件の結果を表示中"
|
||
toggle_hidden: "AI で見つかった %{count} 件の結果を非表示"
|
||
ai_generated_result: "AI で見つかった検索結果"
|
||
quick_search:
|
||
suffix: "AI によるすべてのトピックと投稿"
|
||
ai_bot:
|
||
pm_warning: "AI チャットボットのメッセージは、モデレーターによって定期的に監視されます。"
|
||
cancel_streaming: "返信を停止する"
|
||
default_pm_prefix: "[無題の AI ボット PM]"
|
||
shortcut_title: "AI ボットと PM を開始する"
|
||
share: "AI の会話のコピー"
|
||
conversation_shared: "会話をコピーしました"
|
||
debug_ai: "生の AI リクエストと返答を表示する"
|
||
debug_ai_modal:
|
||
title: "AI インタラクションを表示"
|
||
copy_request: "リクエストをコピー"
|
||
copy_response: "返答をコピー"
|
||
request_tokens: "リクエストトークン:"
|
||
response_tokens: "レスポンストークン:"
|
||
request: "リクエスト"
|
||
response: "応答"
|
||
next_log: "次へ"
|
||
previous_log: "変更前"
|
||
share_ai_conversation:
|
||
name: "AI の会話を共有"
|
||
title: "この AI の会話を公開共有する"
|
||
ai_label: "AI"
|
||
ai_title: "AI との会話"
|
||
share_modal:
|
||
title: "AI の会話のコピー"
|
||
copy: "コピー"
|
||
context: "共有する対話:"
|
||
bot_names:
|
||
fake: "偽のテストボット"
|
||
claude-3-opus: "Claude 3 Opus"
|
||
claude-3-sonnet: "Claude 3 Sonnet"
|
||
claude-3-haiku: "Claude 3 Haiku"
|
||
cohere-command-r-plus: "Cohere Command R Plus"
|
||
gpt-4: "GPT-4"
|
||
gpt-4-turbo: "GPT-4 Turbo"
|
||
gpt-4o: "GPT-4 Omni"
|
||
gpt-3:
|
||
5-turbo: "GPT-3.5"
|
||
claude-2: "Claude 2"
|
||
gemini-1:
|
||
5-pro: "Gemini"
|
||
mixtral-8x7B-Instruct-V0:
|
||
"1": "Mixtral-8x7B V0.1"
|
||
sentiments:
|
||
dashboard:
|
||
title: "センチメント"
|
||
summarization:
|
||
chat:
|
||
title: "メッセージを要約する"
|
||
description: "以下から、希望する期間に送信される会話を要約するオプションを選択してください。"
|
||
summarize: "要約"
|
||
since:
|
||
other: "過去 %{count} 時間"
|
||
review:
|
||
types:
|
||
reviewable_ai_post:
|
||
title: "AI が通報した投稿"
|
||
reviewable_ai_chat_message:
|
||
title: "AI が通報したチャットメッセージ"
|