一名年轻的比利时男子最近在与名为 ELIZA 的聊天机器人交谈数周后自杀身亡,这引发了人们呼吁更好地保护公民和提高认识的必要性。
据La Libre报道,该男子的遗孀曾表示:“如果没有与聊天机器人的这些对话,我丈夫还会活着。 ” 她和她已故的丈夫都三十多岁了,过着舒适的生活,还有两个年幼的孩子。
然而,大约两年前,麻烦的迹象开始出现。该男子变得非常生态焦虑,并在 ELIZA 中找到了避难所,ELIZA 是使用 GPT-J 的聊天机器人的名称,GPT-J 是 EleutherAI 开发的一种开源人工智能语言模型。 经过六个星期的密集交流后,他结束了自己的生命。
上周,这家人与负责行政简化、隐私和建筑监管的数字化国务大臣马修·米歇尔 (Mathieu Michel) 进行了交谈。“我对这个家庭的悲剧感到特别震惊。发生的事情是一个需要我们警惕的先例,需要非常认真地对待,”他周二表示。
他强调,这个案例凸显了“明确责任的必要性”。
“随着 Chatgpt 的普及,普通大众前所未有地发现了人工智能在我们生活中的潜力。虽然可能性是无限的,但使用它的危险也是一个不得不考虑的现实。”
如何避免悲剧的发生为了避免在不久的将来发生这样的悲剧,他认为必须确定导致此类事件的责任的性质。
“当然,我们还没有学会接受算法,但在任何情况下,任何技术的使用都不应该导致内容发布者推卸自己的责任,”他指出。
OpenAI 本身已经承认 ChatGPT 会产生有害和有偏见的答案,并补充说它希望通过收集用户反馈来缓解这个问题。
从长远来看,米歇尔指出,“通过让每个人都了解人们在网上遇到的内容的本质”,提高人们对算法对人们生活影响的认识至关重要。
在这里,他提到了聊天机器人等新技术,也提到了深度造假——一种可以创造令人信服的图像、音频和视频恶作剧的人工智能——可以测试和扭曲人们对现实的感知。
我们在应用新技术的同时也要防止新的技术带来的挑战和困扰,相信我们国家也会出台相应的法律法规来避免一些类似的悲剧发生,大家平时使用Chatgpt的“变种”公众号时也要擦亮双眼,不要过于依赖此类工具。
相关文章
猜你喜欢