跳转至

DeepSeek-R1,Llama 如何使用

平台通过 Ollama(一个专注于本地部署大型语言模型的工具)提供 Llama, DeepSeek-R1 等模型的快捷使用。
目前提供 LlamaQwenDeepSeek R1PhiGemma3 等多个大语言模型,可以快速体验。

AI 模型

1. 创建实例

更大的模型对显存有更高的要求,请参考下面的表格选择合适的显卡机器创建实例。

模板名称 Ollama Restful API model name 显卡需求 (VRAM) 推荐显卡示例
Llama 3B llama3.2 至少 4GB 显存 NVIDIA GTX 1650
EXAONE Deep 7.8B exaone-deep:7.8b 至少 6GB 显存 NVIDIA RTX 2070 Super
DeepSeek R1 8B deepseek-r1:8b 至少 6GB 显存 NVIDIA RTX 2070 Super
Llama 11B llama3.2-vision 至少 12GB 显存 NVIDIA RTX 3090 or higher
DeepSeek R1 14B deepseek-r1:14b 至少 16GB 显存 NVIDIA RTX 4070S or higher
Gemma3 12B gemma3:12b 至少 16GB 显存 NVIDIA RTX 4070S or higher
Phi-4 14B phi4:14b 至少 16GB 显存 NVIDIA RTX 4070S or higher
DeepSeek Coder V2 16B deepseek-coder-v2:16b 至少 24GB 显存 NVIDIA RTX 4090 or higher

2. 确认运行状态

实例成功启动之后,通过 算力连接 按钮可以访问服务。
"算力连接"

可以看到 ollama 服务已经处于运行状态。
"ollama running"

3. (可选)确认模型

访问 /api/tags 确认当前支持的模型列表
模型信息

4. 使用方式

a. 通过 Chatbox 或者 Open Web UI 使用

  1. 下载主流的大语言模型 Web UI 程序,或者使用 Web 版本。
  2. 在设置里选择 OLLAMA API 作为提供者,然后输入您的实例地址。
  3. 开始使用吧!

点击 https://web.chatboxai.app 使用 Chatbox Web 版本快速尝试:

"Chatbox ui setting 01" "Chat ui setting 02"

自行安装 OpenWeb UI 程序,在设置里选择 OLLAMA API 作为提供者,并输入您的实例地址。

"OpenWeb UI API 设置" "OpenWeb UI 聊天"

b. 通过 API 直接调用

您也可以直接通过 API 调用,示例如下:

更多 Ollama Restful API 接口和参数请参考官方 REST API 文档

{
    "model": "llama3.2",
    "prompt": "Why is the sky blue?",
    "stream": false
}

"ollama API"

{
    "model": "deepseek-r1:7b",
    "prompt": "Why is the sky blue?",
    "stream": false
}

"DeepSeek R1 7B API request example"