> 自媒体 > AI人工智能 > MIT用GPT-3冒充哲学家,竟骗过了一大半专家
MIT用GPT-3冒充哲学家,竟骗过了一大半专家
来源:新智元
2023-06-25
97
管理

编辑:David Joey

【新智元导读】AI冒充哲学家,成功率有多少?一半的人分不出来。

Daniel Dennett是一位哲学家,最近他有了一个「AI替身」。

如果你问他,人是否可以造出一个有信仰、有欲望的机器人,他会怎么说?

Bender认为,制造看起来像人的机器和制造模仿特定人的机器都是对的,但其中潜在的风险在于可能会让人误以为他们是在与某个被伪装的人对话。

Schwitzgebel强调,这个实验不是图灵测试。

但如果要进行测试,更好的方法可能是让熟悉机器人工作原理的人与测试者进行讨论,这样就能更好地发现像GPT-3这样的程序的弱点。

塔夫茨大学计算机科学教授Matthias Scheutz说,在许多情况下GPT-3很容易被证明是有缺陷的。

Scheutz和他的同事给GPT-3出了个难题,让它解释一些日常场景中的选择,比如坐在汽车的前座还是后座。在出租车里和在朋友的车里选择相同吗?

社会经验告诉我们,通常坐在朋友汽车的前座,坐在出租车的后座上。

而GPT-3不知道这一点,但它仍会为座位选择产生解释——比如与人的身高有关。

Scheutz说,这是因为GPT-3没有世界模型,它只是一堆语言数据,并没有对这个世界的认知能力。

随着我们越来越难将机器生成的内容与人类区分开,摆在我们面前的一个挑战是信任危机。

我看到的危机是以后人们将盲目地相信机器生成的产物,现在市场上甚至已经出现了与顾客交谈的机器化人工客服。

文章最后,Dennett补充说,人工智能系统的法律法规还需要完善,在未来的几十年里,AI可能会成为人们生活中的一部分,成为人类的朋友,因此对待机器的伦理问题值得我们深思。

关于AI是否拥有意识的问题引出了人们关于非生命物质是否能产生意识的思考,而人类的意识又是如何产生的呢?

意识的产生是在一个特点的节点产生的,还是像开关一样可以自由控制?

Schwitzgebel说,思考这些问题可以帮助你从不用的角度思考机器与人类之间的关系。

参考资料:

https://www.vice.com/en/article/epzx3m/in-experiment-ai-successfully-impersonates-famous-philosopher

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
酷匠(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索