400-8083-012
新闻动态

ChatGPT死活不认27能被3整除#,网友:不是说AI要统治世界了吗?

 让众人疯狂的网红AI ChatGPT,原来也有明显的短板?

一段“网友调教这只AI”的聊天记录,在网上传开了。

可以看到,AI起初居然说27是个质数。

在网友向其提出质疑后,AI仍嘴硬称“27不能被3整除”。

有围观者看完后调侃:AI不是都要统治世界了吗,怎么会输给一道简单的数学题?

不过,也有很多人为ChatGPT说话:这么坦诚的认错态度,不比某些人强多了图片。

数学水平拉胯,还贼固执

网友不得不和AI“大战几百回合”,最后在人类锲而不舍的教导下,AI才终于终于低头认错。


有一说一,AI的认错态度倒是很好。

具体事情是这样的:

网友在和ChatGPT互动的过程中发现,这只AI数学水平过于拉胯,连27是不是质数这种简单问题都能搞错——而且还是在知道质数定义的情况下……

网友表示无语,但还是耐着性子又问了一遍,结果AI依然嘴硬,偏把9说成是9.0。

无奈,网友只能搬出代码,试着用Python来教会AI。

结果AI还真学会了!而且人家还主动承认了刚才的错误。

于是网友让ChatGPT证明它给出的结论,没想到,AI居然说27不能被3整除。