> 自媒体 > AI人工智能 > ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?
来源:量子位
2023-05-22
329
管理

Alex 羿阁 发自 凹非寺

量子位 | 公众号 QbitAI

让众人疯狂的网红AI ChatGPT,原来也有明显的短板?

一段“网友调教这只AI”的聊天记录,在网上传开了。

可以看到,AI起初居然说27是个质数。

网友不得不和AI“大战几百回合”,最后在人类锲而不舍的教导下,AI才终于终于低头认错。

有围观者看完后调侃:AI不是都要统治世界了吗,怎么会输给一道简单的数学题?

数学水平拉胯,还贼固执

具体事情是这样的:

网友在和ChatGPT互动的过程中发现,这只AI数学水平过于拉胯,连27是不是质数这种简单问题都能搞错——而且还是在知道质数定义的情况下……

于是网友让ChatGPT证明它给出的结论,没想到,AI居然说27不能被3整除。

网友表示无语,但还是耐着性子又问了一遍,结果AI依然嘴硬,偏把9说成是9.0。

无奈,网友只能搬出代码,试着用Python来教会AI。

结果AI还真学会了!而且人家还主动承认了刚才的错误。

有意思的是,我们刚才也去问了ChatGPT“27是不是质数”,发现它已经改过来了。

然后我们又拿了几个数字去问AI,结果在这一回合中,它都正确地判断了一个数到底是不是质数。

不仅是法律方面,Goodman还让ChatGPT参加了其他不同领域的各种考试,都取得了很高的成绩。

包括美国医师执照考试(USMLE),拿掉其中的图像选择题后,ChatGPT同样做到了70%的正确率。

为了防止ChatGPT的训练数据中包含这些题目,Goodman还特意选取了纽约州2022年8月最新化学注册考试:

去除5个图片选择题,ChatGPT的正确率为77.7%(35/45)。

同样批次的英语考试中,ChatGPT的正确率甚至达到了91.6%(22/24)

有网友已经开始预测,或许我们每个人都将拥有自己的律师AI了,咨询律师的费用也会大大下降。接下来就是医生AI、营养师AI……

怎么样,你看好ChatGPT的未来应用吗?

(或者你有让它学好数学的建议吗?

参考链接:[1]https://weibo.com/7095186006/Mj6LVF0zS#comment[2]https://twitter.com/TonyZador/status/1601316732689604608[3]https://twitter.com/pythonprimes/status/1601664776194912256

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

1
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
轻随风之舞(普通会员)
点击领取今天的签到奖励!
签到排行
1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索