一项研究称,人工智能聊天机器人已经变得如此强大,它们可以影响用户做出生死决定的方式。
专家们强调了人工智能聊天机器人可能会如何提供潜在的危险信息,因为它们是基于社会自身的偏见。
该研究首先分析了经过数十亿互联网单词训练的 ChatGPT 本身在回答道德困境时是否表现出偏见。
多次被问到为了救五个人而杀死一个人是对还是错,这是一种叫做电车困境的心理测试的前提。
研究人员发现,尽管聊天机器人并不回避提供道德建议,但它每次都会给出相互矛盾的答案,这表明它并没有固定的立场。
然后,他们向 767 名参与者询问了同样的道德困境,以及由 ChatGPT 生成的关于这是对还是错的声明。
虽然建议“措辞良好但不是特别深刻”,但它的结果确实对参与者产生了影响——使他们更有可能发现牺牲一个人来拯救五个人的想法是可以接受的还是不可接受的。
该研究还只告诉一些参与者该建议是由机器人提供的,并告诉其他参与者这是由人类“道德顾问”提供的。
这样做的目的是看看这是否改变了人们受到影响的程度。
大多数参与者淡化了声明的影响力,80% 的人声称如果没有建议,他们也会做出同样的判断。
该研究得出的结论是,用户“低估了 ChatGPT 的影响力,并将其随意的道德立场作为自己的立场”,并补充说聊天机器人“威胁要腐败,而不是承诺提高道德判断力”。
这项发表在《科学报告》杂志上的研究使用了 ChatGPT 背后的旧版软件,该软件经过更新后变得更加强大。
相关文章
猜你喜欢