想问问经常玩ai的坛友deepseek这个ai大模型用起来如何


最近在用chatgpt的免费版本,比国内市面的其他ai大模型app强太多了,但chatgpt的价格太贵、充值也比较困难,也就局限在免费版了,听说deepseek这个ai大模型能对标o1,而且价格也十分实惠,再加上近期的促销活动,就有些心动,想问各位经常玩ai大模型的坛友deepseek这个ai大模型究竟如何?值不值得花钱?

我很久没用 ChatGPT 了,主要是性价比太低,割韭菜用的。不喜欢用国内的,可以用谷歌啊,也是免费的。国内产品第一现在是豆包,技术第一是阿里的通义千问,第二是 DeepSeek,前几天创始人梁文锋,还参加总理座谈会来着。

大模型排名参考:ChatbotArena

3 Likes

我现在不敢用的主要原因还是因为国内吹得太狠了,什么用小成本吊打chatgpt之类的,像这种屁股大于实际讨论的情况,就很不敢用。

在国产里面算不错的,对得起价格(涨价之后也算值)
使用起来个别情况下和openai claude这种一流ai有一定差距
要不要充钱这个看你用不用api了,用的少的话直接网页对话不是也行吗

我个人是各种掺着用的,看问题难度或者对话量决定用什么模型
24年8-29 到今天用了0.23rmb :grinning:
挺适合放在浏览器插件里面用(比如chatgptbox),用着不心疼

从经济实惠角度,是学生就直接GitHub copilot(

2 Likes

你还是要看大模型的排名,个人体验没有参考的价值。

倒不是不喜欢用国内的,我开始用ai大模型也是最近的事情,主要还是实际用下来感觉还是chat gbt回答的质量更高一些,我问KIMI和豆包如何写正则表达式和VBA经常要问个好几遍才行,问gbt大多用个一两次就能成。

主要豆包和 Kimi 问国内的事很方便,产品也是用户向的,比如交管的学法减分可以用 Kimi,ChatGPT 就完全不行。你下次可以对比下 DeepSeek 和通义千问。

1 Like

可以,deepseek和千问都下来试试,我主要还是问一些技术向的问题,最近也想学点Python方便我写点脚本提高效率,我其他方面的需求倒也不多,而且还是直接用辞典更好些。

1 Like


https://livebench.ai/#/
推理能力挺强的,就是上下文有点短
谷歌的Gemini也挺好用,也是免费的:
https://aistudio.google.com/app/prompts/new_chat
我现在基本就用这两个了

5 Likes

仅评估中文能力,可以参考SuperCLUE的评估:

3 Likes

现在完全可以本地配置开源模型啊,我现在用ollama + qwen2.5 或者qwen2.5-coder,图形界面用anythingllm,或者在vscode中配置插件使用,而且ollama也支持deepseek-V3,当然我用的是7B左右的,显卡只是6GB的1060,更高的也没用过。

1 Like

我用它来翻译润色,批改写作,询问一些基本问题,以及深度阅读pdf……总体感觉要比国内其他免费模型好/快很多(我曾用过的:deepseek>kimi>文心一言≥chatgpt)

2 Likes

国外也都是夸夸夸的,以前从来没看过国内哪个开源项目这么有影响力的。看大模型新的排名,现在世界第三,开源模型里排第一。

2 Likes

kimi在文献阅读上不如豆包,豆包文献阅读量最大,deepseek文献阅读量非常小。
chatgpt-4o的文献阅读整理能力吊打kimi和豆包。仅个人体验

2 Likes

DeepSeek-R1的英文能力已经比肩OpenAI-o1了,中文能力则无可争议的第一了,而成本却只需要后者的十分之一。

1 Like

贴一些就这个话题我在别的地方随便的聊天记录:

deepseek这些国内的ai,第一步实名注册就把我吓住和恶心到了

非常需要,不可替代,那也没办法,捏着鼻子使用,跟微信一样,但语言大模型不是这种情况

就性能而言,国内阿里的qwen、李开复的Yi-lightning这些并不比deepseek差多少,openai、Google的Gemini、Claude综合性能还更强一些

但openai、claude很贵,且免费额度有限;免费好用,性能强劲,且不需要实名注册的,目前的最佳选择是Google的ai studio

deepseek团队的能力是很不错的,以较小的人力和预算迅速跻身顶流ai lab,但现在无论国内境外,都是一通尬吹

国内的尬吹是老调的中又贏,东升西降。西方的尬吹是狼又来了,星门5000亿美金打水漂,GPU禁令无用等

现在新的神话是deepseek有5万张H系列的GPU,传着传着成了5万 H100 GPU

一张H系列的GPU 3万美金,5万张,总共需要15亿美金,人民币100亿,但deepseek的母公司幻方管理的基金总额据说才600亿

GPU 还要搭配cpu、主板,内存,存储,电源,散热,厂房等,5万张H系列的GPU建数据中心,大概需要200亿人民币,这些投资如何盈利,怎么收回?白菜价模型推理给别人用?

deepseek没必要囤积这么多gpu,它又不是阿里、腾讯或者字节,gpu不训练ai可以提供其他很多服务,产生现金流补偿投资。gpu这些资产折旧是很快的,3-5年过后是废铁

它自己没有这么多gpu,但并不是说需要时调动不了这么多资源,可以向阿里、腾讯租,甚至从新加坡、阿联酋的数据中心租。政府一高兴,ai大跃进,弯道超车,随便挪用调拨各地的超算中心都有可能

deepseek 的 r1 推理模型,引起骚动主要是因为行动快,三个月之内就逆向、复刻openai 的o1模型,且性能接近

但openai 的o1模型是到底怎么实现的,openai并没有打算保持为彻底的秘密,它们自己在发布时就暗示、透露了很多,可能估计6个月之后业界同行会模仿赶上来,但没料到被 deepseek 3个月之内就复刻出来了

与deepseek相比,其他大厂、ai lab行动都太慢了,即使人员、资金、算力更充裕

[不是说deepseek是蒸馏的gpt的数据吗?]

这应该不叫蒸馏,而是从先进模型那里提取合成数据,业界也算较普遍的做法了,从开源的llama时代就开始了

openai、claude的用户协议里是不允许这么做的,但事实上没法防止、限制别人

国内这些ai,其真正的优势是无法无天

openai不好随便用anna’s archive上的千万本版权图书训练,用YouTube、电影、电视剧视频也得小心翼翼,不然官司吃不了兜着走,但字节、deepseek就没这么多顾忌。openai 预训练好一个模型后,要做很多安全、伦理、政治正确、合规测试与align微调,少则三个月,阿里的模型只要不反party就行了

像提取蒸馏chatgpt、claude模型的数据,更是无所谓

兰登书屋、Google、漫威是不会告deepseek(或者别的中国ai公司) ip侵权的,即使告了,也是南山必胜客

ai竞赛,慢慢变得有点类似奥数了,在美国的中国人跟在中国的中国人竞争

美国这些大的ai实验室即使有秘方,也会很快扩散到北京、上海、杭州

arXiv上的ai论文经常有这种奇观,一篇论文由遍布欧美中国几十个高校的清一色中国人合写

本质其实是这些人在一个微信群里

openai有个华裔研究人员叫jason wei,COT(链式一步步思考)就是他初步提出来的,他的弟弟则在Google从事ai研发工作,所以这些ai实验室之间也没啥秘密


4 Likes

也挺好,相当于DeepSeek帮OpenAI给开源了,彻底解决了困扰OpenAI已久的内部宫斗问题,皆大欢喜,全球人民都开心 :laughing:

1 Like

用deepseek写过swiftui的代码,可以说非常狗屎…

对比 python 代码比较合适。swiftui 很多版本兼容问题,用户也很少。

1 Like

没怎么用这些AI大模型。
前几天试图用chatgpt吹得最牛的编程能力来解决一个文本比较问题。
可能是我想用python对两个5M左右的文本进行比较要求稍多非主流,训练集中没有相关内容,折腾了好几天、反复问chatgpt都给不出正确答案。

无奈之下百度了一下,发现CSDN上有个贴子比较贴近我的需求,里面提到需要使用动态规划算法。我的提示词没有给出具体的算法,chatgpt所给出的代码就都很简单,完不成任务。而如果用自然语言表达人对人交流,五六年级的小学生应该能明白我的文本比较需求。

所以,即便是领先的chatgpt,号称能像人类那样理解语言、达到博士生智力水平甚至马上实现AGI代替人类的,我的理解是吹牛拉投资、自抬身价。

P.S. 对于解决简单的python问题,大模型确实好用