用极空间部署DeepSeek大模型API

用极空间部署DeepSeek大模型API
开工大吉,事业新启

艾瑞巴蒂,我是小极君~

春节期间,要说什么最火,除了票房大卖的《哪吒之魔童闹海》,那必定是咱们的国产 AI 大模型「DeepSeek」

最近,「DeepSeek」在中国、美国的科技圈受到广泛关注,甚至被认为是大模型行业的最大“黑马”,在外网,「DeepSeek」被不少人称为“神秘的东方力量”

1月27日,DeepSeek应用登顶苹果美国地区应用商店免费APP下载排行榜,在美区下载榜上超越了ChatGPT。同日,苹果中国区应用商店免费榜显示,DeepSeek成为中国区第一

网上关于它的介绍、评价、使用教程铺天盖地,连续多天热搜霸榜

#冯骥称DeepSeek或是国运级别的科技成果#

#谷歌CEO称DeepSeek是一支了不起的团队#

#三家美国巨头同日接入DeepSeek#

#华为云、阿里云、腾讯云等多个平台宣布上线接入DeepSeek大模型#

……….

「DeepSeek」的战绩,可以用火到全宇宙来形容啦!(你们发现没?过年家庭聚会,饭桌上话题已经从xxx战役转变为DeepSeek啦!

其实小极君一开始也不懂这些高大上的技术,但最近悄悄学习了一下,发现DeepSeek确实太好用了!有了它,感觉自己瞬间支棱起来了!(偷偷告诉你,这篇公众号就是小极君和DeepSeek合作完成的哦,是不是很神奇?

不过,小极君在学习的过程中,也看到大家有这样的烦恼:“ 本地算力不足,DeepSeek官方的API最近一直提示维护升级,想用却用不了,实在让人着急……”  

新年开工第一天,我们解锁新玩法,小极君给你大家分享一个妙招——DeepSeek-V3 R1 大模型逆向 API 项目,借助极空间 Docker 部署,轻松解决这些难题!

🎯 玩法亮点

  • 功能强大且部署简单:这个逆向 API 项目堪称 “功能怪兽”!支持高速流式输出、多轮对话、联网搜索、深度思考,还有多路Token支持,还能零配置部署,技术小白也能轻松上手!

  • 无缝对接主流平台:通过 One API 项目,将 DeepSeek 逆向 API 转成 OpenAI 接口,便能完美适配 LobeChat、ChatGPT Next Web 等主流 LLM 平台。

特别感谢 @Panda不是猫  带来的【一键获取爆火的 DeepSeek 大模型 API,完美对接 LLM】超详细部署教程,帮大家解锁了这么新潮的玩法~

如果你最近也在探索 AI 的世界,尤其是对 DeepSeek 大模型感兴趣,赶紧玩起来!

📝 温馨提示:请确保所有操作和内容均符合法律法规,合理使用AI技术,避免侵权或不当用途。

用极空间部署DeepSeek大模型API

风险提示

·vinlic/deepseek-free-api容器由Docker仓库提供,极空间仅提供支持创建Docker镜像的环境,软件功能与注意事项详见该软件内具体使用规则。

·本文仅代表作者观点;使用第三方解决方案,均非官方正式方案,可能会产生相关风险,请用户自行斟酌。

用极空间部署DeepSeek大模型API
用极空间部署DeepSeek大模型API
引言
用极空间部署DeepSeek大模型API

不少人最近都尝试过了本地部署DeepSeek了,网上的教程也是非常之多,什么电脑本地部署、NAS上Docker部署,甚至用手机部署1.5b的模型,相信只要是日常使用AI比较多的小伙伴都已经自己尝试过了。

用极空间部署DeepSeek大模型APIDeepSeek
不过,虽说DeepSeek提供了各种参数的模型,算力不够也能玩玩,甚至手机也能玩,但我猜应该还是有人在用官方的服务,不过有一说一,虽说DeepSeek官网体验蛮不错的,且APP也非常简洁,甚至让我觉得这居然是个国产软件,但也就是因为太简洁了,很多对于大模型来说很有用的功能没有。例如AI的人设设定、插件支持以及提示词设置等等,这些能很大程度的简化我们使用AI的过程,同时也能增加AI的无限可能性。
用极空间部署DeepSeek大模型APIAPI暂时维护
所以这时候我们就需要用到第三方的LLM平台,通过它们来让DeepSeek拥有很多功能,例如对接个人知识库、插件支持、AI助手预设以及大模型集成等等,但DeepSeek官方的API最近一直提示维护升级,所以熊猫今天介绍DeepSeek-V3 R1大模型逆向API项目,通过Docker部署。
特性:
  • 支持高速流式输出
  • 多轮对话
  • 联网搜索
  • R1深度思考
  • 零配置部署
  • 多路token支持
用极空间部署DeepSeek大模型API项目页
用极空间部署DeepSeek大模型API
部署机
用极空间部署DeepSeek大模型API
本次部署用到的为极空间Z423旗舰版,之所以选择极空间其实还有个原因是free-api本身还有其他大模型的逆向项目,而熊猫也一直是部署在这上面的,同时对应的One API项目也在极空间上,所以很大程度集中式的管理会更为方便。
用极空间部署DeepSeek大模型API容器项目
因为Z423旗舰版本身出厂内存就有32G,所以在即便熊猫目前已经部署了非常多的容器项目,同时还有虚拟机在运行,内存使用率依然能稳定在50%以下,这也是为什么熊猫经常使用Z423旗舰版部署容器的原因,毕竟折腾这些容器和虚拟机,内存可是非常关键的因素。
用极空间部署DeepSeek大模型API设备状态

 

用极空间部署DeepSeek大模型API
Free-API部署
用极空间部署DeepSeek大模型API

DeepSeek V3 Free的部署非常简单,因为其项目本身就是一个提供接口的功能,所以不需要去设置容器文件的本地化,也不需要多高的性能,只需要映射其端口即可。不过在部署前,请注意自己的极空间网络环境,提前设置好镜像加速地址。

用极空间部署DeepSeek大模型API加速器配置
设置好镜像加速之后我们来到仓库界面,搜索镜像vinlic/deepseek-free-api并下载,如果搜索不到,直接用自定义拉取也可以。
用极空间部署DeepSeek大模型API镜像拉取
镜像下载之后先不着急部署,这时候我们需要去获取Token,进入DeepSeek随便发起一个对话,然后F12打开开发者工具,从Application > LocalStorage中找到userToken中的value值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
用极空间部署DeepSeek大模型APItoken获取
随后在部署Docker时我们在环境变量中新增变量DEEP_SEEK_CHAT_AUTHORIZATION,将其值填入我们刚刚获取的token。
用极空间部署DeepSeek大模型API
端口上我们需要映射8000端口,例如熊猫这里设置为8704。
用极空间部署DeepSeek大模型API端口设置
最后点击应用启动容器,这时候逆向的API也就获取成功了。
用极空间部署DeepSeek大模型API
One API部署
用极空间部署DeepSeek大模型API
虽说API已经逆向获取成功了,但这时候还不能直接用,我们还需要用One API项目来转为OpenAI接口。该项目的部署也不难,还是一样在仓库界面搜索镜像justsong/one-api,下载之后双击创建容器。
用极空间部署DeepSeek大模型APIOne API部署
在文件夹路径这里,为了保证本地持久化运行以及容器重启数据不丢失,我们需要映射容器路径/data。
用极空间部署DeepSeek大模型API路径映射
最后映射容器端口3000,例如熊猫这里填的为3300。
用极空间部署DeepSeek大模型API端口映射
点击应用启动容器,这时候One API也就部署成功了。
用极空间部署DeepSeek大模型API
如何使用API
用极空间部署DeepSeek大模型API
API和承载API的工具都部署好了,这时候我们只需要去One API设置好就行。浏览器输入Http://极空间IP:3300进入One API项目界面,初始用户名为root,密码为123456,登陆之后点击渠道这个选项。
用极空间部署DeepSeek大模型APIAPI设置
可以看到熊猫这里已经部署有智谱和千问了,我们点击下方的添加新的渠道,类型设置为OpenAI,名称设置为DeepSeek,模型就选择填入相关模型即可。
用极空间部署DeepSeek大模型API渠道设置
最后在下面密钥这里填入我们获取的token值,在代理这里填写我们部署的API逆向工程项目地址,例如熊猫的地址为http://极空间IP:8704,设置好之后点击提交。
用极空间部署DeepSeek大模型API提交渠道
渠道设置好之后回到渠道界面可以点击测试,能看到API的响应时间,因为最近DeepSeek也是在风口浪尖,所以响应速度比起刚开始慢了不少。因为熊猫这里模型比较多,如果想要只使用Deepseek,就需要设置好优先级。
用极空间部署DeepSeek大模型API响应测速
要使用它也很简单,随便选择一个LLM平台,可以是ChatGPT Next Web、BotGem、OpenCat或者LobeChat,只要是支持OpenAI接口的都可以,这里熊猫选择的为之前自部署的LobeChat。
用极空间部署DeepSeek大模型APILMM平台
在模型设置这里找到OpenAI设置项, API的代理地址就是我们部署的One API项目,而API Key直接在One API项目中的令牌里去复制即可,设置好之后可以检查一下是否连通。
用极空间部署DeepSeek大模型API模型设置
最后回到AI聊天界面,首先验明一下模型的身份。
用极空间部署DeepSeek大模型API身份验证
通过LobeChat,我们能够直接赋予DeepSeek多种身份。在LobeChat的发现界面中,你可以浏览到众多预设的AI助手,并可直接套用。
用极空间部署DeepSeek大模型API预设助手
用极空间部署DeepSeek大模型API
写在最后
用极空间部署DeepSeek大模型API

目前也是用了好几天的Deepseek了,比起国内其他一种AI模型它的确要优秀不少,通过API的形式也能让其对接到LLM平台,从而实现更为方便和快捷的使用,这几天的使用个人感觉非常不错。
 
用极空间部署DeepSeek大模型API
极空间私有云·新春开工季
用极空间部署DeepSeek大模型API

极空间Q4·优雅全能的数据管家

助你开启新年新征程

→采购传送门←

更时尚、更易融入家居风格的四盘位NAS
支持U.2 企业级高速硬盘
低噪运行,极致静音,安睡无忧

 

「 极空间京东自营旗舰店 

活动时间:2月5日~2月16日

到手价不高于1999

轻松购,京东白条至高6期免息

参与晒单还有机会获得迅雷超级会员季卡

 

用极空间部署DeepSeek大模型API

 

原创文章,作者:研究院精选,如若转载,请注明出处:https://www.pmtemple.com/academy/17074/

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年1月22日 下午10:15
下一篇 2025年2月6日 上午10:16

相关推荐

发表回复

登录后才能评论
微信公众号
微信公众号
edgesensor_high 小程序
小程序
分享本页
返回顶部