中新网5月17日电 据外媒报道,当地时间16日,开发ChatGPT的美国人工智能公司OpenAI的首席执行官(CEO)山姆·阿尔特曼在参议院一场听证会上,呼吁美国政府加强对快速发展的人工智能领域的监管。
据报道,阿尔特曼在参议院司法委员会下属的隐私、技术和法律委员会举办的听证会上就人工智能监管表示,他支持成立一个联邦机构,对具有某些“关键能力”的人工智能模型设立许可证制度。如果模型不符合政府制定的安全准则,则可以撤销其许可。
他还建议,政府应为高性能人工智能模型制定安全标准,并制定模型必须通过的特定功能测试。
当地时间2023年5月16日,OpenAI首席执行官山姆·阿尔特曼 (Samuel Altman) 出席参议院司法委员会下属的隐私、技术和法律委员会举办的听证会。
阿尔特曼虽未明确说明监管门槛的标准,但他表明,“政府监管、干预对于降低人工智能工具所带来的风险至关重要”。
当被问及他对人工智能的最大担忧时,阿尔特曼表示,“我最担心的是,我们——这个领域、这项技术、这个行业——会对世界造成重大伤害。我认为这可能会以很多不同的方式发生……我认为,如果这项技术出了问题,它可能会出很大的问题。”
他说,“我们希望对此发表意见。我们希望与政府合作,防止这种情况发生。但我们必须对此保持清醒的头脑。”
OpenAI2022年发布了聊天机器人程序ChatGPT。ChatGPT能够通过理解和学习人类语言来进行对话,甚至撰写文案等。
ChatGPT发布后立刻引发各界关注。有教育工作者担心ChatGPT会导致学生在完成作业时作弊,也有专家担忧ChatGPT会误导公众、违反版权保护法规等。
今年3月,美国推特公司CEO马斯克和人工智能领域顶尖专家本吉奥等千人联名签署了一封公开信,主张在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的,并呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。
5月初,美国副总统哈里斯会见了微软、谷歌和另外两家开发人工智能的公司的负责人,讨论人工智能的潜在风险。拜登政府明确向这些企业高层表示,他们必须在推出产品之前确保其安全性。
随着ChatGPT等人工智能应用快速发展,部分国家政府机构开始重视该应用并对其加强监管。据此前报道,3月,意大利个人数据保护局宣布,暂时禁止使用ChatGPT。美欧多所大学已禁止学生使用ChatGPT,纽约市教育局禁止当地的公立学校电脑以及网络使用ChatGPT。
相关文章
猜你喜欢