KI-Anbieter einrichten
Moraya verfügt über ein integriertes KI-Assistenten-Panel, das mehrere LLM-Anbieter mit Streaming-Antworten unterstützt.
Das KI-Panel öffnen
Schalten Sie das KI-Chat-Panel mit Cmd+Shift+I (macOS) oder Ctrl+Shift+I (Windows/Linux) um. Das Panel öffnet sich als 340px breite Seitenleiste auf der rechten Seite des Editors.
Anbieter konfigurieren
Öffnen Sie die Einstellungen (Cmd+,) > Tab “KI”. Wählen Sie Ihren Anbieter aus und geben Sie den erforderlichen API-Schlüssel ein:
| Anbieter | API-Schlüssel erforderlich | Hinweise |
|---|---|---|
| Claude (Anthropic) | Ja | Anthropic API-Schlüssel von console.anthropic.com |
| OpenAI | Ja | OpenAI API-Schlüssel von platform.openai.com |
| Gemini (Google) | Ja | Google AI Studio-Schlüssel von aistudio.google.com |
| DeepSeek | Ja | DeepSeek API-Schlüssel von platform.deepseek.com |
| Ollama | Nein | Läuft lokal. Installieren Sie zuerst Ollama und laden Sie ein Modell herunter. |
Benutzerdefinierte Endpunkte
Moraya unterstützt jeden OpenAI-kompatiblen API-Endpunkt. Geben Sie die Basis-URL und den API-Schlüssel im Abschnitt für benutzerdefinierte Anbieter ein.
Streaming
Alle Anbieter unterstützen Streaming über SSE (Server-Sent Events) oder ReadableStream. Antworten erscheinen Zeichen für Zeichen im KI-Panel.