5 月末,DeepSeek-R1 开源模型迎来 0528 版本的更新,不仅在数学计算和逻辑推理方面表现出色,还显著降低了幻觉率,减少”已读乱回“的情况。本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek-R1,并借助贝锐花生壳内网穿透,轻松实现安全远程访问! 与传统的云端部署或端口映射远程访问方式相比,贝锐花生壳内网穿透技术不仅使得远程连接更为便捷,而且能够有效防止未授权用户擅自访问本地部署的Ollama,从而全方位保障 AI 资源的私密性和安全性。 一、利用Ollama一键本地部署Qwen3 首先,访问Ollama官网,下载并一键安装Ollama客户端。 安装完成后,打开命令提示符,输入以下命令,下载DeepSeek-R1 模型:ollama run deepseek-r1:8b deepseek-r1 模型目前提供1.5B~671B参数,大家根据显存大小选择合适版本:4GB选4B、8GB选8B、16GB选14B,这样可以确保模型运行得更加顺畅。 需要注意的是,Ollama默认仅开启本机访问权限(不允许外部或远程访问)。完成上述步骤后,你可以在本机通过命令行或者http请求进行访问,如果能够返回以下结果,就说明模型已经正常运行了。 二、安装Open WebUI,实现图形界面交互 除了通过命令行与DeepSeek-R1 交互,为了实现更友好的图形化界面操作,我们可以使用Open WebUI。在此之前,得先确认电脑上安装并运行了Docker,要是还没安装,需要去Docker官网一键下载安装。 接下来,通过Docker部署Open WebUI,执行以下命令即可快速搭建 : 输入命令:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 如果希望通过其他方式部署,大家也可以自行查看Open WebUl github主页的教程。 完成部署后,在浏览器中访问127.0.0.1:3000,设置本地管理员账号,之后就可以通过网页界面与DeepSeek-R1 进行交互了! 三、利用贝锐花生壳内网穿透,实现安全远程访问 如果想随时随地远程访问本地部署的DeepSeek-R1,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。 首先步,先注册一个贝锐账号,然后下载并登录花生壳客户端。 第二步,进入花生壳云管理平台,填写Open WebUI局域网IP和默认端口“3000”,并设置安全访问规则。 不同于其他内网穿透,花生壳支持一键使用HTTPS加密传输、额外设置网页访问密码实现双重防护,并有访问权限控制、爆破防护等高档防护功能,充分保障AI服务器安全。 第三步,完成设置后,点击保存,就会自动生成一个外网访问地址,随时随地安全访问! 四、 贝锐花生壳强大防护能力,保障安全远程访问 贝锐花生壳还提供了精细化的访问权限控制和爆破防护等高档功能增值服务。它可以依据时间周期、IP地址 / 区域、浏览器 / 系统版本等条件来判断是否允许访问,自动阻止未经授权的访问请求,有效避免私有服务暴露在公网的风险。 通过以上这些步骤,我们不仅成功实现了DeepSeek-R1 的本地私有化部署,还借助贝锐花生壳轻松解锁了远程访问。整个过程简单有效,无需复杂操作,也无需依赖云服务器,就能打造专属的AI助手。 (推广) 特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。 (责任编辑:) |