24小时在线平台

当前位置: 24小时在线平台 > 部署教程大全 > 文章页

两步搞定!本地运行最强开源大模型DeepSeek

时间:2025-06-08 13:31来源: 作者:admin 点击: 4 次
中国AI大模型DeepSeek-R1全球瞩目,性能与OpenAI相当且开源。本文提供详尽安装教程与包,助您本地运行此模型。含下载、安装Ollama、启动模型及安装ChatWise客户端步骤,简单几步开启与DeepSeek-R1的交互之旅。

两步搞定!本地运行强大的开源大模型DeepSeek,详细教程与安装包指南

最近,中国的AI大模型DeepSeek-R1发布后在全球科技界掀起了波澜。英伟达的AI科学家Jim Fan对此表示赞叹,并指出:“一家非美国公司正在推动OpenAI最初愿景的真正开放与赋能的前沿研究。”

DeepSeek-R1不仅在性能上与OpenAI的O1模型旗鼓相当,还完全开源。这为我们提供了一个绝佳的机会,让我们可以在本地利用这个开源的大语言模型进行各种推理任务。

本地安装指南

1. 下载所需安装包

为了帮助大家快速上手,我已准备好相关的安装包。您可以通过以下链接下载:https://xueshu.fun/5750。当然,您也可以从官方网站获取这些文件。

以下是安装包的详细信息:

2. 安装Ollama

双击0-OllamaSetup.exe文件,按照安装向导的提示逐步点击“继续”按钮即可完成安装。

3. 运行 1-Run-DeepSeek-R1.bat

双击运行该脚本,它将自动启动Ollama服务。

脚本会下载并运行DeepSeek-R1模型。

第一次运行时,模型(约6GB)将自动下载。

完成上述步骤后,您可以通过命令行与DeepSeek进行对话。如果您希望使用客户端软件,还可以继续进行下一步。

脚本内容如下:

@echo off

chcp 65001 >nul

echo [%date% %time%] 开始启动 Ollama 服务...

REM 启动 ollama 服务器在后台运行

start /b cmd /c ollama serve

echo [%date% %time%] Ollama 服务已在后台启动

REM 等待几秒钟确保服务器已经启动

echo [%date% %time%] 等待服务初始化...

timeout /t 5

echo [%date% %time%] 正在启动 DeepSeek 模型...

REM 运行 deepseek 模型

ollama run deepseek-r1

echo [%date% %time%] DeepSeek 模型已退出

pause

4. 安装 2-ChatWise_0.6.26_x64-setup.exe

该程序提供了一个可视化的聊天界面。

使您能够更方便地与DeepSeek-R1模型进行交互。

支持多种对话模式和功能。

安装完成后,界面如下。选择DeepSeek R1模型后,您就可以在ChatWise的界面中与DeepSeek-R1进行愉快的交流、绘制图表或编写代码,带来极佳的体验。

(责任编辑:)
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:
发布者资料
查看详细资料 发送留言 加为好友 用户等级: 注册时间:2025-06-08 19:06 最后登录:2025-06-08 19:06
栏目列表
推荐内容