Ollama
Ollama 是一款开源的本地大语言模型运行工具,用于在本地环境中下载、运行和管理各类大模型。模型推理在本机完成,不依赖外部云服务,具体性能与可用模型取决于本地硬件条件与模型配置。
💡 本地部署的大型语言模型,完全免费使用
本地部署及使用流程
- 打开 Ollama 官网,下载适用于您操作系统的安装程序。
- 前往 模型列表,选择所需模型,并在终端执行命令(例如
ollama pull translategemma:4b)以完成 translategemma:4b 模型下载。 - 启动 Ollama:在终端执行
ollama run translategemma:4b,系统自动使用默认 API Key,无需手动输入,即可开始翻译服务。 - 如在使用过程中遇到问题或建议,可前往 问题反馈 页面提交反馈。
常见问题
如果你按照教程成功运行了 Ollama 程序,并且在【ollama 翻译模型设置】中正确填写了模型名称和 API 接口地址,但仍无法正常使用,提示403错误,可能是遇到了局域网接口跨域问题。请根据你的操作系统,按以下步骤开启跨域支持:
- Windows
打开控制面板 → 系统属性 → 环境变量 → 用户环境变量,新增两个环境变量:
OLLAMA_HOST:设置为0.0.0.0OLLAMA_ORIGINS:设置为*(允许所有来源访问)- 保存后,重启 Ollama 程序。
- macOS
在终端中执行
launchctl setenv OLLAMA_ORIGINS "*",再启动 Ollama 程序。 - Linux
在终端中执行
OLLAMA_ORIGINS="*" ollama serve,再启动 Ollama 程序。
⚠️ ollama 程序所运行的模型名称和【ollama 翻译模型设置】中的模型名称必须一致(如程序运行的模型名称为「translategemma:4b」,则【ollama 翻译模型设置】中的模型名称必须为「translategemma:4b」)。
💡 更多 ollama 操作请查看 ollama 官方文档。
✅ 解决跨域问题前,请确保 ollama 程序处于关闭状态。
💡 更多 ollama 操作请查看 ollama 官方文档。
✅ 解决跨域问题前,请确保 ollama 程序处于关闭状态。

