> 自媒体 > AI人工智能 > Open AI论文剑指AI技术恶意使用,不仅危害财产,还可能造成恐慌
Open AI论文剑指AI技术恶意使用,不仅危害财产,还可能造成恐慌
来源:DeepTech深科技
2023-08-20
239
管理

Open AI 于 2018 年 2 月 20 日发表了一篇关于“恶意使用 AI 技术”的论文(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),同时这篇论文也指出如何预防潜在恶意使用 AI 技术的方式。与 Open AI 一同完成此论文的包括牛津大学人类未来研究所、剑桥大学现存风险研究中心、美国智库“新美国安全中心”以及电子前沿基金会等机构。

论文指出,包括机器学习在内的不少 AI 技术都在以极快的速度发展着。医疗、翻译等越来越多的领域都将会被AI技术所改变,在这种情况下,对AI技术的恶意使用也就越来越值得警惕,这便是Open AI 这篇论文的研究意义。

Open AI 将滥用 AI 技术的威胁分成了三种:

数字安全:使用 AI 来自动执行网络攻击中所涉及的任务,这会加大网络攻击的效率,尤其是那些劳动密集型的网络攻击。同时 Open AI 也表示,网络黑客们也有可能利用 AI 来合成人类的指纹、声纹,也有可能用 AI 来自动寻找软件漏洞。

物理安全:使用无人机以及其他无人设备进行攻击。这种威胁会对民众造成人身伤害,尤其是当自动驾驶、自动飞行等系统遭到恶意使用时,其造成的损害不可预计。

政治安全:使用 AI 来执行监视、游说、欺骗,从而造成公众恐慌、社会动荡等危害。这种恶意使用 AI 的方式对一些权力集中的国家格外有效。

为了应对这三种威胁方式,Open AI 提出了四种预防计划:

1. 决策者应与技术部门保持密切联系,并分配预算以支持研究人员调查、缓解潜在的恶意行为。

2.AI 技术的研究者应该认真地考虑其研究方向的两面性,并将其负面影响作为优先和研究重点来考虑,在该技术真正威胁到人类之前,主动与相关人士接触。

3. 实践出真知,解决威胁的最好办法就是多去使用。如数字安全领域,研究者应多去参与防御性工作,以让技术达到更高的成熟度。

4. 扩大利益相关者群体,与更多行业的专家进行交流,从而更全面地预防 AI 的恶意使用。

Open AI 的论文并不是十分乐观,该机构指出,随着 AI 系统的多样性增加,威胁的种类也在增多。首先,现有的攻击方式会扩大,这是因为 AI 带来了巨大的劳动成本缩短。其次会因为 AI 技术而引入新的攻击方式,而且是不可预测的。其三,AI 技术进步的同时,其他软件、硬件技术也在进步,所以很有可能会改变现有攻击方式的典型特征,从而躲过传统的监测机制。

此外,Open AI 的董事会成员伊隆·马斯克宣布退位,但是仍会赞助该企业。董事会席位与业务管理层的性质不同,马斯克的离开并不会改变 Open AI 的研究方向,同时这也会减轻马斯克身上的压力,从而投入更多精力于负债累累的特斯拉上。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
婆罗花开(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索