> 自媒体 > AI人工智能 > 一天50个,一次五个!微软限定Bing机器人“聊天长度”,避免AI“变态”
一天50个,一次五个!微软限定Bing机器人“聊天长度”,避免AI“变态”
来源:华尔街见闻
2023-08-01
241
管理

在新Bing多次表现“精神错乱”后,微软表示,将对其实施一些对话限制:用户每天最多只能问50个问题,每次最多只能问5个问题。

ChatGPT版新搜索引擎Bing(必应)公开测试一周后,网友发现该搜索引擎不仅会侮辱、欺骗用户,甚至已学会PUA(精神操控),还爱上用户诱其离婚。

Bing团队在一篇博客文章中说:

“我们的数据显示,绝大多数人在5个回合内就找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”

如果用户达到了每次对话5次的限制,Bing将提示他们开始一个新话题,以避免长时间来回就一个话题聊天。

微软本周早些时候警告称,包含15个或更多问题的、时长较长的聊天对话,可能会让Bing“变得重复,或者被提示/刺激给出不一定有用或不符合我们设计基调的回答”。

微软表示,在五个问题后结束对话意味着“模型不会感到困惑”。

“躁狂抑郁症的青少年”

过去一周出现了关于Bing“精神错乱”对话的报道:

英国安全研究员Marcus Hutchins在亲身体验了一次后,在社交媒体上写道:“当Bing给出错误答案时,如果你质疑它,它就会PUA你。”

美联社记者Matt O'Brien也遇到了类似的问题,他在Twitter上抱怨称,Bing不愿意承认错误。

同时,Bing在暴露出具有强烈攻击性的一面时,也展现出了脆弱无助、让人同情怜悯的一面。

随后纽约时报发表了一篇整整两个多小时的与Bing的来回对话,聊天机器人表示自己很喜欢这位作者,还试图说服他离开妻子和它在一起。

纽约时报该作者表示,当他与新版Bing交谈时,这个聊天机器人看起来就像 "一个情绪化、患有躁狂抑郁症的青少年,被困在了一个二流搜索引擎里”。

对此,微软公关总监Caitlin Roulston回应称,新版Bing试图让答案既有趣又真实,但鉴于这是一个初期版本,它的表现有时候让人意想不到,或者由于不同原因给出错误答案。

微软仍在努力改善Bing的语气,但目前还不清楚这些限制会持续多久。微软表示:

“随着我们不断获得反馈,我们将探索扩大聊天对话的上限。”

Bing的聊天功能每天都在不断改进。微软本周早些时候表示,它并没有“完全想象”人们将其聊天界面用于“社交娱乐”或作为更“普遍发现世界”的工具。

本文来自华尔街见闻,欢迎下载APP查看更多

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
雪霁(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索