今天在知乎看到这个问题,来回答一下。
之前在本地部署了个 DeepSeek,现在已经被我丢一边了。。如果本地配置不高,DeepSeek 本地部署,降智是肯定的!
先来看看 DeepSeek-R1 本地部署的版本都有哪些。下拉框中显示了不同版本的 DeepSeek-R1 模型对应的「参数规模」和「模型文件大小」:
其中 b 代表 billion(十亿)。
“1.5b 1.1GB”表示模型有 15 亿(1.5 billion)参数,模型文件大小为 1.1 GB。
参数规模越大,能力越强,相应的对电脑配置的要求也越高。
网上大家经常说的「DeepSeek 满血版」,就是只 671b 的 DeepSeek-R1 模型。
而 「DeepSeek 残血版」,指的就是 1.5b ~ 70b 的基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出来的,效果肯定是不如满血版 DeepSeek 好的。
可以看下 DeepSeek 官网中,DeepSeek-R1-32B 和 DeepSeek-R1 满血版及其他大模型在各方面的测试效果对比:
可以看到,32b 参数规模的 DeepSeek-R1,和 671b 满血版的 DeepSeek-R1,还是有一些差距的,更别说比 32b 更低的模型了。
而大多数人的电脑,可能只能跑的了 32b 及以下的 DeepSeek 模型。
更差一些的,像我的电脑,MacOS,M1,内存 16G,只能跑的动 7b 或者 8b 的,那真的是玩了个寂寞。
虽然 DeepSeek 本地部署很简单,但说实话,如果电脑配置一般,真的没必要再本地部署 DeepSeek 了!
还不如直接用 DeepSeek 官网或 APP 提供的 671b 的「满血版」DeepSeek-R1。
但由于国外持续大规模的恶意攻击 + 用户激增,导致 DeepSeek 服务器很不稳定,用的时候经常出现「服务器繁忙」的情况。
这几天大家都在找能稳定使用 DeepSeek 的备选方案,包括满血版 DeepSeek-R1。
如果不想用本地部署的「残血版」DeepSeek,下面这几种方式,都可以用得上 671b 满血版的 DeepSeek-R1。
用的比较多的就是 SiliconFlow + CherryStudio/Chatbox 的方式,需要的话可以看之前写的教程:
别再学DeepSeek本地部署了,根本没用!用这招5分钟用上满血版DeepSeek-R1,手机可用,打工人速存!(附保姆级教程)
除了上面说的方案外,还可以使用 360「纳米AI搜索」、「秘塔AI搜索」里的长思考·R1,等等。
不过因为用的人实在太多了,各个方式现在可能都会有些卡。哈哈,可以换着用,哪个能用就用哪个好了~
相关文章
2024年终AI工具汇总:9大AI领域,70+精选AI工具,全都在这了!(建议收藏)
国产AI杀疯了,吊打ChatGPT!一文读懂DeepSeek:DeepSeek入门最全教程!(新手必看)
DeepSeek又被黑崩溃!别慌,用这招10分钟完成DeepSeek本地部署,打工人速存!(附保姆级教程)
我是X小鹿,前互联网大厂程序员,自由职业 2 年+。与其追求别人设定的标准,不如按自己喜欢的方式去工作和生活。
评论(0)