Skip to content
ホームドキュメントブログ概要
English 简体中文 繁體中文 Español Français Русский العربية Português Deutsch 日本語 한국어 हिन्दी

AI プロバイダー設定

Moraya には、ストリーミング応答に対応した複数の LLM プロバイダーをサポートするビルトイン AI アシスタントパネルがあります。

AI パネルを開く

Cmd+Shift+I(macOS)または Ctrl+Shift+I(Windows/Linux)で AI チャットパネルの表示・非表示を切り替えます。パネルはエディタの右側に 340px のサイドバーとして開きます。

プロバイダーの設定

設定を開き(Cmd+,)、AI タブを選択します。プロバイダーを選んで必要な API キーを入力します:

プロバイダーAPI キーが必要備考
Claude (Anthropic)はいconsole.anthropic.com から Anthropic API キーを取得
OpenAIはいplatform.openai.com から OpenAI API キーを取得
Gemini (Google)はいaistudio.google.com から Google AI Studio キーを取得
DeepSeekはいplatform.deepseek.com から DeepSeek API キーを取得
Ollamaいいえローカルで実行。先に Ollama をインストールしてモデルを pull してください。

カスタムエンドポイント

Moraya は OpenAI 互換 API エンドポイント をサポートしています。カスタムプロバイダーセクションでベース URL と API キーを入力してください。

ストリーミング

すべてのプロバイダーが SSE(Server-Sent Events)または ReadableStream によるストリーミングをサポートしています。応答は AI パネルに 1 文字ずつ表示されます。