LocalAI
LocalAI 是一个本地运行开源模型的开源 Docker
镜像,支持大部份开源模型。相对于 Ollama,它更适合部署到局域网服务器供小团体使用。
本指南介绍如何在 Aide 中配置和使用 LocalAI 模型。
您可以在 LocalAI 官网文档 获取更多详细信息。
安装 LocalAI
在使用 LocalAI 之前,请确保已参考 LocalAI 官网文档 安装并运行 Docker
镜像。
API Base URL 配置
您需要配置 aide.openaiBaseUrl
为 http://localhost:8080/v1
(假设您的服务运行在 8080 端口)
API Key 配置
您可以随意填写以配置 aide.openaiKey
。例如,填入 sk-LocalAI
。
模型配置
您需要配置 aide.openaiModel
为 LocalAI 模型,我们推荐使用 llama3-instruct
模型。更多模型请参考 支持的模型列表。
示例配置文件
以下是一个完整的配置示例:
json
{
"aide.openaiBaseUrl": "http://localhost:8080/v1",
"aide.openaiKey": "sk-LocalAI",
"aide.openaiModel": "llama3-instruct"
}