最近,谷歌正在全力开发生成式人工智能技术。在其年度 I/O 大会上,该公司宣布计划将人工智能工具嵌入其几乎所有产品中,从谷歌文档到编程和在线搜索。
谷歌的声明意义重大。现在,数十亿人将能够使用强大的尖端人工智能模型,帮助他们完成各种任务,从生成文本到回答问题,再到编写和调试代码。正如《麻省理工技术评论》主编马特·霍南(Mat Honan)在对 I/O 大会的分析中所写的那样,很明显人工智能现在已成为谷歌的核心产品。
(来源:STEPHANIE ARNET/MITTR)
谷歌的做法是逐步将这些新功能引入其产品中,但我们迟早会看到一些问题浮现。该公司尚未解决这些人工智能模型的任何常见问题:它们仍然喜欢胡编乱造;它们仍然很容易被操纵,打破人类设定的规则;它们仍然容易受到攻击;几乎没有什么能阻止它们被用作生成虚假信息、诈骗和垃圾邮件的工具。
由于这类人工智能工具相对较新,它们仍然在很大程度上处于无监管状态。但这是不可持续的。随着 ChatGPT 热潮逐渐消退,要求监管的呼声越来越高,监管机构开始对这项技术提出棘手的问题。
美国监管机构正试图找到一种方法来管理这些强大的人工智能工具。本周,OpenAI CEO 萨姆·奥特曼(Sam Altman)在美国参议院作证(前一天晚上他刚与政界人士共进了一顿“教育性质的”晚餐)。在听证会之前一周,美国副总统卡玛拉·哈里斯(Kamala Harris)刚与 Alphabet、微软、OpenAI 和 Anthropic 的 CEO 举行了会议。
图 | OpenAI 创始人山姆·奥特曼(Sam Altman)(来源:资料图)
哈里斯在一份声明中表示,这些公司有“道德和法律责任”来确保其产品的安全。多数党领袖、纽约州参议员查克·舒默(Chuck Schumer)提出了监管人工智能的立法,其中可能包括成立一个新机构来执行这些规则。
斯坦福大学“以人为中心的人工智能研究所”的隐私和数据政策研究员詹妮弗·金(Jennifer King)说:“每个人都希望自己做的一些事情被看到。人们对这一切的发展感到非常焦虑。”
金表示,要让两党支持一项新的人工智能法案将很困难:“这将取决于(生成式人工智能)在多大程度上被视为一种真正的社会层面的威胁。”但她补充道,联邦贸易委员会主席利娜·汗(Lina Khan)已经“主动出击”。本月早些时候,汗写了一篇专栏文章,呼吁现在就对人工智能进行监管,以防止过去对科技行业过于松懈而导致的错误。她表示,美国的监管机构更有可能使用其工具包中已有的法律来监管人工智能,如反垄断法和商业实践法。
与此同时,在欧洲,立法者正接近就《人工智能法案(AI Act)》达成最终协议。上周,欧洲议会成员签署了一项法规草案,呼吁禁止在公共场所使用面部识别技术。它还禁止了预测性警务、情绪识别和不分青红皂白地在网上抓取生物特征数据。
欧盟也将制定更多规则来约束生成式人工智能,议会希望创建大型人工智能模型的公司更加透明。潜在措施包括标记人工智能生成的内容,以摘要的形式披露模型训练中使用了哪些受版权保护的数据,以及建立防止模型生成非法内容的保障措施。
但问题是:欧盟距离实施这些规则还有很长的路要走。《人工智能法案》的许多拟议内容都无法进入最终版本。议会、欧盟委员会和欧盟成员国之间仍在进行艰难的谈判。我们还需要数年时间才能看到《人工智能法案》生效。
当监管机构努力采取行动时,科技界的知名人士开始往相反的方向用力。微软首席经济学家迈克尔·施瓦茨(Michael Schwarz)在最近的一次活动上表示,我们应该等到看到人工智能带来的“有意义的伤害”后再对其进行监管。他将人工智能比作驾照——许多人在事故中丧生后才有了驾照。施瓦茨说:“至少要有一点点伤害,这样我们才能看到真正的问题是什么。”
这种说法太离谱了。人工智能造成的危害多年来已被充分记录在案。它存在偏见和歧视,会生成假新闻和诈骗信息。其他人工智能系统导致无辜的人被逮捕,让人们被困在贫困中,成千上万的人被错误地指控欺诈。随着谷歌大规模宣传自己的下一步计划,生成式人工智能将会越来越深地融入我们的社会,这些危害可能会呈指数级增长。
我们应该问自己的问题是:我们愿意看到多大的伤害?而我的答案是:我们已经看得够多了。
支持:Ren
原文:
相关文章
猜你喜欢