今天在知乎看到这个问题,来回答一下。

之前在本地部署了个 DeepSeek,现在已经被我丢一边了。。如果本地配置不高,DeepSeek 本地部署,降智是肯定的!

先来看看 DeepSeek-R1 本地部署的版本都有哪些。下拉框中显示了不同版本的 DeepSeek-R1 模型对应的「参数规模」「模型文件大小」

其中 b 代表 billion(十亿)。

“1.5b 1.1GB”表示模型有 15 亿(1.5 billion)参数,模型文件大小为 1.1 GB。

参数规模越大,能力越强,相应的对电脑配置的要求也越高。

网上大家经常说的「DeepSeek 满血版」,就是只 671b 的 DeepSeek-R1 模型。

而 「DeepSeek 残血版」,指的就是 1.5b ~ 70b 的基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出来的,效果肯定是不如满血版 DeepSeek 好的。

可以看下 DeepSeek 官网中,DeepSeek-R1-32B 和 DeepSeek-R1 满血版及其他大模型在各方面的测试效果对比:

可以看到,32b 参数规模的 DeepSeek-R1,和 671b 满血版的 DeepSeek-R1,还是有一些差距的,更别说比 32b 更低的模型了。

而大多数人的电脑,可能只能跑的了 32b 及以下的 DeepSeek 模型。

更差一些的,像我的电脑,MacOS,M1,内存 16G,只能跑的动 7b 或者 8b 的,那真的是玩了个寂寞。

虽然 DeepSeek 本地部署很简单,但说实话,如果电脑配置一般,真的没必要再本地部署 DeepSeek 了!

还不如直接用 DeepSeek 官网或 APP 提供的 671b 的「满血版」DeepSeek-R1。

但由于国外持续大规模的恶意攻击 + 用户激增,导致 DeepSeek 服务器很不稳定,用的时候经常出现「服务器繁忙」的情况。

这几天大家都在找能稳定使用 DeepSeek 的备选方案,包括满血版 DeepSeek-R1。

如果不想用本地部署的「残血版」DeepSeek,下面这几种方式,都可以用得上 671b 满血版的 DeepSeek-R1。

用的比较多的就是 SiliconFlow + CherryStudio/Chatbox 的方式,需要的话可以看之前写的教程:

别再学DeepSeek本地部署了,根本没用!用这招5分钟用上满血版DeepSeek-R1,手机可用,打工人速存!(附保姆级教程)

除了上面说的方案外,还可以使用 360「纳米AI搜索」、「秘塔AI搜索」里的长思考·R1,等等。

不过因为用的人实在太多了,各个方式现在可能都会有些卡。哈哈,可以换着用,哪个能用就用哪个好了~

相关文章

2024年终AI工具汇总:9大AI领域,70+精选AI工具,全都在这了!(建议收藏)

国产AI杀疯了,吊打ChatGPT!一文读懂DeepSeek:DeepSeek入门最全教程!(新手必看)

DeepSeek又被黑崩溃!别慌,用这招10分钟完成DeepSeek本地部署,打工人速存!(附保姆级教程)

图片

我是X小鹿,前互联网大厂程序员,自由职业 2 年+。与其追求别人设定的标准,不如按自己喜欢的方式去工作和生活

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。