Configuração do provedor de IA
O Moraya possui um painel de assistente de IA integrado que suporta múltiplos provedores de LLM com respostas em streaming.
Abrindo o painel de IA
Alterne o painel de chat de IA com Cmd+Shift+I (macOS) ou Ctrl+Shift+I (Windows/Linux). O painel abre como uma barra lateral de 340px no lado direito do editor.
Configurando provedores
Abra Configurações (Cmd+,) > aba AI. Selecione seu provedor e insira a chave de API necessária:
| Provedor | Chave de API necessária | Observações |
|---|---|---|
| Claude (Anthropic) | Sim | Chave de API Anthropic de console.anthropic.com |
| OpenAI | Sim | Chave de API OpenAI de platform.openai.com |
| Gemini (Google) | Sim | Chave do Google AI Studio de aistudio.google.com |
| DeepSeek | Sim | Chave de API DeepSeek de platform.deepseek.com |
| Ollama | Não | Executa localmente. Instale o Ollama e baixe um modelo primeiro. |
Endpoints personalizados
O Moraya suporta qualquer endpoint de API compatível com OpenAI. Insira a URL base e a chave de API na seção de provedor personalizado.
Streaming
Todos os provedores suportam streaming via SSE (Server-Sent Events) ou ReadableStream. As respostas aparecem caractere por caractere no painel de IA.