如果你对在本地运行 AI 模型感兴趣,那么最近引起广泛讨论的 DeepSeek R1 你一定不会陌生。这款开源 AI 模型在数学、编程和推理任务上的表现尤为出色,甚至能与 OpenAI 的 GPT-4o 和 Claude 3.5 Sonnet 等顶级模型相媲美。更令人兴奋的是,它完全免费、私密,并且可以离线运行,让你在自己的硬件上独立部署 AI。

在本指南中,我将手把手教你如何在本地部署 DeepSeek R1。即使你是第一次接触 AI 模型,也无需担心——无论你使用的是 Mac、Windows 还是 Linux,操作步骤都清晰易懂,非常适合新手上手。

什么是DeepSeek R1?

DeepSeek R1 是一款功能强大的 AI 模型,提供从 1.5B 参数的轻量级版本到70B 参数的高性能版本等多种选择。它的架构基于 Qwen-7B,并经过蒸馏优化,在提升效率的同时,依然保持了卓越的性能。

那么,DeepSeek R1 最大的亮点是什么?它不仅在许多任务上能与顶级商业模型媲美,更重要的是——它完全开源,并支持本地运行!这意味着你不再需要依赖云端服务器,可以完全掌控自己的数据,确保隐私安全,同时享受高效的 AI 体验。

为什么要本地运行AI模型?

在本地运行AI模型有几个主要优点:

隐私:你的数据保留在自己的机器上——没有共享敏感信息的风险。
成本:DeepSeek R1完全免费使用,无需订阅或支付使用费用。
控制:你可以自由地微调和实验,而不受外部服务的依赖。

不过,需要注意的是,在本地运行较大的模型版本(如70B参数版本)确实需要一定的硬件配置。

步骤 1:安装 Ollama

要本地运行 DeepSeek R1,我们将使用 Ollama。这是一个专为在个人电脑上运行 AI 模型而设计的工具。

下载 Ollama

根据你的操作系统,从 Ollama 官网 下载对应的版本:

  • Windows: 下载 .exe 文件。
  • MacOS: 下载 .dmg 文件。
  • Linux: 下载 .deb.rpm 包。

安装 Ollama

按照下载页面上的说明完成安装。安装完成后,Ollama 将提供一个简单的方式来通过终端直接拉取和运行模型。

验证安装

打开终端(或命令提示符),输入以下命令验证 Ollama 是否安装成功:

ollama version

如果安装正确,你应该会看到 Ollama 的版本号。


Ollama 是一个简单而强大的工具,它让你可以轻松地在本地运行 AI 模型。接下来,我们将使用它来拉取并配置 DeepSeek R1 模型。

# 步骤 2:拉取 DeepSeek R1 模型

使用 Ollama,你可以轻松地拉取和运行不同版本的 DeepSeek R1 模型。选择哪个版本取决于你的硬件配置和需求。

支持的模型版本

Ollama 目前支持以下 DeepSeek R1 的不同版本:

  • 1.5B(最小)
  • 8B
  • 14B
  • 32B
  • 70B(最大、最智能)

每个版本的大小和参数数量决定了其性能和所需的硬件资源。更大的模型(如 70B)在推理任务(如数学、编码和逻辑推理)中表现更好,但需要更强大的 GPU 或更高的计算能力。

要拉取 DeepSeek R1 模型,请按照以下步骤操作:

  1. 打开终端或命令提示符。
  2. 输入以下命令来拉取你选择的 DeepSeek R1 模型版本。例如,如果你想拉取 70B 版本(最大的模型),请输入:
ollama pull deepseek/r1-70b

如果你想拉取其他版本(如 32B 或 8B),请将 r1-70b 替换为对应的模型名称:

  • 1.5B: deepseek/r1-1.5b
  • 8B: deepseek/r1-8b
  • 14B: deepseek/r1-14b
  • 32B: deepseek/r1-32b

等待模型下载完成。拉取时间取决于你的网络速度和选择的模型大小。

下载完成后

一旦模型成功拉取,Ollama 会将其存储在本地,并准备好供你使用。

接下来,你可以继续按照指南进行配置和运行 DeepSeek R1 模型!

运行 8B的模型

要启动模型, 打开终端运行:

ollama run deepseek-r1:8b

此命令拉取8B模型并将其设置为在本地运行。下载完成后,模型即可准备就绪。

注意:较大的模型(如32B和70B)需要强大的GPU和更多的存储空间。从较小的模型开始,然后根据硬件能力逐步升级。

步骤 3:安装Chatbox

虽然你可以通过终端与DeepSeek R1进行交互,但使用图形用户界面(GUI)会使体验更加顺畅。让我们来看看 Chatbox —— 这是一个免费且注重隐私的桌面客户端,专为集成本地模型而设计。

下载Chatbox

从 Chatbox 官方网站 下载 Chatbox。

安装和启动应用

按照安装向导完成安装,然后启动应用程序。


通过安装和使用Chatbox,你可以更方便地与DeepSeek R1交互。接下来的步骤将指导你如何在Chatbox中配置并运行模型!

  • 配置Chatbox使用Ollama
  • 打开Chatbox设置。
  • 将模型提供程序切换为Ollama。
  • 设置API主机为:
    http://127.0.0.1:11434
    保存设置并选择DeepSeek R1作为您的活动模型。现在,您准备好通过干净、用户友好的界面与DeepSeek R1聊天了!

简单测试

Prompt:用 python 制作一个吃豆人游戏

输出


import pygame
from pygame.locals import *

pygame.init()
# Screen dimensions
WIDTH, HEIGHT = 400, 400
# Colors
BLACK = (0, 0, 0)
YELLOW = (255, 255, 0)
# Initialize screen
screen = pygame.display.set_mode((WIDTH, HEIGHT))
pygame.display.set_caption("Pac-Man")
# Game loop
running = True
while running:
for event in pygame.event.get():
if event.type == QUIT:
running = False
screen.fill(BLACK)
pygame.draw.circle(screen, YELLOW, (WIDTH // 2, HEIGHT // 2), 30)
pygame.display.flip()
pygame.quit()