乍一看确实惊艳,但只要你在某领域是从业人士或有深入了解,多几个回合,就知道有多可笑了。
我就以我曾经从事的行业里的某个话题和R1进行讨论,还基本不涉及观点,只是过去和现状的数据,开始还有模有样,当几次指出TA列出的数据有误时,就开始自我放飞,胡说八道了,连量子力学都出来了。
又比如昨天让R1梳理一下有关《人的行动》英文正式出版物以及中文译本出版物的版本情况,这里面也全部是历史数据,不存在价值判断的东西,应该是AI的强项,没想到仍然充满了错误,连我这个外行都看不下去了。指出了TA的多处错误,来回多次TA还是整不明白,最后连 正版鉴别技术指南都整上去了。
最可怕的不是AI胡说八道,可怕的是AI提供的信息真假参半,外行人无法分辨,反而产生不明觉厉的幻觉,影响人的判断,甚至酿成后果,毕竟AI不会承担责任,承担责任的是人。这就是自动驾驶最终会碰到的不可逾越的高墙——伦理问题。
有道理。给AI提供的数据质量决定了它咋分析推理。
这几天川万岁爷、万九千岁、马公公在国际时局上发表了骇人言论,令人仿佛回到WWII前夕。
这个标题醒目地写着Trump的字眼,令人作呕。
相信不止我这么觉得(我曾经还是支持川普的一些恢复常识的政策)。
下面顶贴的都成了ai讨论,希望移步他处。
的确这很不美丽国风范了。