> 自媒体 > AI人工智能 > 人工智能AI服务被暂停,必须要给技术的发展带上“紧箍咒”!
人工智能AI服务被暂停,必须要给技术的发展带上“紧箍咒”!
来源:陇上词客
2023-05-20
271
管理

我来了,我看见,我分享!

全球著名的安全机构FLI(Future of Life Institute:生命未来研究所)在今年3月份发布公开信,呼吁全球所有机构暂停训练AI服务,著名科学家斯蒂芬·霍金、商界大佬埃隆·马斯克、比尔·盖茨等,也对人工智能的发展表示担忧。近段时间以来,国内chatAI服务也相继暂停,同时互联网上种种声音表明,大家已经嗅到了科学技术发展给人类带来的危险信号。

Future of Life Institute:生命未来研究所关注的风险类型

通过上图可以看出,“生命未来研究所”将人工智能的风险同生物工艺学、核武器、气候变化等放在同一个等级,并且排在第一位。这就充分说明人工智能的风险之大。

那么目前人工智能究竟发展到了什么程度?自然语言处理:chatAI服务已经能够自动写文章,而且写作能力和水平远超人类;AI绘画能把你想到的画面瞬间生成。机器人和自动化:目前,在智能制造、智能物流等领域,机器人已经取代了人类劳力。智能交通:智能交通管理、自动驾驶技术已经成熟。医疗保健:智能健康监测技术已开始在医疗系统运用。金融领域:人工智能技术已经运用到业务办理、信用评估、投资建议等方面。我们去银行办个简单的业务,机器人完全能够搞定,办事效率远超人类。致命自主武器系统:令人胆寒的“屠宰机器人”,已能够使用人工智能在没有人为干预的情况下识别、选择和杀死锁定人类目标。

许多科研团队已开始攻克“AGI(Artificial General Intelligence表现得与人类一样好或更好的通用人工智能)”,一旦人工智能系统超越人类,那么它很快就会将人类抛在后面,这是一个非常恐怖的超越。

人工智能很危险?

可能跟科幻电影里的情节不太一样,像什么人工智被植入了情感,机器人还要跟人类谈恋爱……科学家认为这种技术的突破短期内还不能实现。在考虑人工智能的风险时,最有可能就是:

(一)人工智能的程序被写为做一些破坏、毁灭性的事情: 我们说技术的发展是中性的,并没有好坏之分,像我们研发的自主武器系统,它被掌握在政府手里能够保家卫国,摧毁来犯之敌,要是被恐怖分子利用,就成了杀人放火的掠夺侵犯工具。此外,如若人工智能被不加节制地运用在国防武器系统,由于各国军备竞赛,可能会无意中导致一场人工智能战争,那么这对世界和平来说是一场毁灭性的打击,甚至地球都有可能不复存在。这种风险会随着人工智能和自主水平的提高而增加。

(二)人工智能会“为达目的不择手段”:即使人工智能被编程为做一些有益的事情,它仍然可以开发一种破坏性的方法来实现这一目标。危险不是来自机器人本身,而是来自智能本身,它只需要互联网连接就可以对我们造成无法估量的伤害。

超级人工智能碾压人类文明不是不可能!

以前看过的科幻电影好多都变成了现实,谁又能保证的了今天我们看到的科幻剧作不会在明日实现呢?无论未来怎样,只要我们的管理智慧能战胜技术发展的不确定性,给技术戴上“紧箍咒”,人类文明才会赢得未来。

资本是贪婪逐利的,如若不加监管会助推技术发展到万劫不复的境地

我们暂停技术研究不是阻碍发展,恰恰相反,我们先停下来制定好规则后,为的是能让技术在朝着人类可控的方向加速发展!。

2
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
素素鴉(普通会员)
点击领取今天的签到奖励!
签到排行
2
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索