各位亲爱的麻瓜朋友们(对,说的就是那个盯着终端界面瑟瑟发抖的你),今天我们要玩一场麻瓜也能轻松通关的魔法仪式——用宝塔面板在本地服务器召唤出那个让代码圈闻风丧胆的”深度摸鱼”神器DeepSeek!
想象一下:当别人还在苦哈哈地敲着黑底白字的命令行,把头发薅成地中海时,你已经翘着二郎腿,喝着肥宅快乐水,用鼠标点点点就建好了AI大模型的老巢。这感觉就像别人在徒手造火箭,而你却从四次元口袋掏出了任意门——别怀疑,宝塔面板就是这个次元壁突破器!
准备好迎接这场”作弊级”的部署之旅了吗?让我们先把SSH咒语、Docker符箓这些吓人的玩意暂时收进抽屉,毕竟今天我们要用的是连你家喵星人都能看懂的图形化操作。系好安全带,三分钟后,你的服务器就要开始吞吐AI智慧的星光啦!✨
本文将指导你在服务器上使用宝塔面板部署DeepSeek,让你轻松享受AI大模型的快乐。
前提条件
已安装宝塔面板
操作步骤
DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。
如您需要使用NVIDIA GPU加速,请参考文末的使用NVIDIA GPU加速配置完成后再继续。
在终端界面中输入
ollama run deepseek-r1:1.5b
,回车运行DeepSeek-R1模型。DeepSeek-R1模型有多个版本,可以根据需要选择不同版本,例如
ollama run deepseek-r1:671b
,详情如下(模型参数越大,需要配置越高):1 2 3 4 5 6 7 8 9 10 11 12 13 14
ollama run deepseek-r1:671b ollama run deepseek-r1:1.5b ollama run deepseek-r1:7b ollama run deepseek-r1:8b ollama run deepseek-r1:14b ollama run deepseek-r1:32b ollama run deepseek-r1:70b
等待下载并运行,当看到如下提示表示DeepSeek-R1模型运行成功。
你可以在界面中输入文本并回车,开启与DeepSeek-R1模型的对话。
你可以在界面中输入
/bye
并回车,退出DeepSeek-R1模型。在终端内对话看起来是不是有点麻瓜?别担心,接下来让我们来安装
OpenWebUI
,在浏览器中更直观地与DeepSeek-R1模型对话在
宝塔面板-Docker-容器
界面中找到Ollama容器,点击Ollama右侧的管理
,进入容器管理界面,获取容器IP,保存备用。在宝塔面板Docker-应用商店-AI/大模型分类中找到OpenWebUI,点击
安装
。按一下说明,配置相关信息,点击
确定
。你可以在左上角切换模型,选择不同模型进行对话,也可以在左侧菜单栏中查看历史对话记录。
你可以在右上角点击
头像
,进入管理员面板,在设置-模型
中查看当前模型列表,或添加新模型。
web端口:访问OpenWebUI的端口,默认为3000
,根据需要自行修改
ollama地址:填写http://刚刚获取的Ollama容器IP:11434
,例如http://172.18.0.2:11434
WebUI Secret Key:用于 API 访问的密钥,可以自定义,例如123456
其他配置默认即可
配置完点击确认,等待安装完成,状态变为运行中
。
由于OpenWebUI启动后需要加载相关服务,请在状态变为运行中
后等待5-10分钟再访问。
在浏览器中输入http://服务器IP:3000
,例如http://43.160.xxx.xxx:3000
,进入OpenWebUI界面。
请在访问前确保云厂商服务器防火墙已放行3000端口,可以在云厂商控制台中设置。
创建完成后会自动进入管理界面,现在你可以在浏览器中更直观地与DeepSeek-R1模型对话了。
使用NVIDIA GPU加速
DeepSeek 可以使用NVIDIA GPU加速,提高推理速度,下面将介绍如何在宝塔面板中使用NVIDIA GPU加速。
前提条件
服务器已安装NVIDIA GPU驱动
操作步骤
在终端界面中输入
nvidia-smi
,回车查看NVIDIA GPU信息。如果提示
nvidia-smi: command not found
,请先安装NVIDIA GPU驱动。安装NVIDIA Container Toolkit,以便于Docker容器访问NVIDIA GPU,安装教程请参考NVIDIA Container Toolkit官方文档。
安装完成后,运行如下命令,配置docker支持使用NVIDIA GPU。
1 2
nvidia-ctk runtime configure --runtime=docker systemctl restart docker
配置完成后,执行如下命令,验证docker是否支持NVIDIA GPU。
1
docker run -- --runtime=nvidia --gpus all ubuntu nvidia-smi
在
docker-compose.yml
文件中找到resources
,回车换行,添加如下内容:
reservations:
devices:
- capabilities: [gpu]