海报观察员 张静宁
谁能想到,美国人工智能研究实验室OpenAI的新作ChatGPT-4还没“满月”,就遭遇了禁令。
ChatGPT是OpenAI研发的人工智能技术驱动的自然语言处理工具。可将其理解为聊天机器人,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动。
2022年11月30日发布后,其迅速在社交媒体上走红,短短5天,注册用户数就超过100万,2023年1月末月活用户突破1亿,成为史上增长最快的消费者应用。
发布之初它就能完成撰写邮件、视频脚本、文案、翻译等任务。仅仅3个多月ChatGPT再次进化,谱曲、报税、写诗,甚至美国律师资格考试等,ChatGPT-4都可以做到。
但近期,ChatGPT涉及的数据安全、图片真实性、艺术作品版权等一系列问题不断涌现,关于ChatGPT的质疑声音变得越来越激烈。
ChatGPT"变坏了”?
当地时间3月31日,意大利个人数据保护局列出3项指控,宣布即日起禁止使用ChatGPT平台,并限制OpenAI公司处理意大利用户信息,同时个人数据保护局开始立案调查。
自3月31日开始,全球不少国家的ChatGPT都出现了大规模封号的情况。个人数据安全只是ChatGPT“变坏”的一个方面,在此之前,早已出现了一些“端倪”。在美国、澳大利亚、法国等地,很多公立学校的设施和网络都限制其师生访问ChatGPT,以此防止教育系统的学术舞弊现象。
同时,这种“变坏”的情况不只出现在ChatGPT上,还有很多AI软件都面临这样的问题。比如三月底由AI画图工具Midjourney生成的特朗普被捕系列照片,在网络中“以假乱真”;再如发生在比利时,智能机器人“艾丽莎”诱导一男子自杀身亡等。这些由人工智能引起的负面事件让网络讨论的声音开始向伦理与规则制定层面延伸。
当人工智能遇见“人类智能”
其实对于人工智能的讨论,近几年来始终存在,但从未像现在这样严峻。
意大利的这次禁止使用ChatGPT的动作,为全球释放了一个信号,意味着对此类人工智能技术的监管措施,可能已经走在了路上。
在ChatGPT刚上线时,带来的第一波担忧来自职业危机,很多声音表示像法律文员、市场分析、基础程序员等简单重复性的职业会被人工智能取代。在此之后,来自个人数据安全的问题成为了人工智能带来的第二波担忧。伴随而来的,还有各个行业、领域涉及的版权、抄袭以及造假等问题。
随着越来越多的负面影响浮出水面,真实与虚拟、人类与机器的边界也逐渐变得模糊,人们逐渐开始反思我们到底需要什么样的人工智能。
对此,三月底,推特的总裁马斯克、苹果公司联合创始人沃兹尼亚克以及多名人工智能专家及行业高管联名发表公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少六个月,理由是这种系统对社会和人类构成潜在风险。
人类和人工智能的“正面交锋”已然开始。
伦理规则难题如何破
说到底,人工智能本质上是一次技术的迭代,是一种更高效便捷的新技术手段。与其说不断发展的人工智能技术给人类社会带来了威胁,不如说是人工智能的“进化”对现行的治理体系提出了挑战。
就像我们行走时总是两只脚一前一后交替前进,科技的发展和伦理规则的制定,也总是一先一后地出现。当下我们无法预想未来的人工智能世界会有怎样的变化,但人工智能技术在这片“新沃土”上“狂奔”时,是时候配上法律法规和伦理的缰绳了。
这两年来,各国都在试图制订人工智能的相关法案,欧盟的《人工智能法案》将于3月底再欧洲议会进行投票。在我国,目前国家层面的人工智能立法正处于预研究阶段,但地方已有相关的立法尝试。对人工智能的立法大多集中在安全性和伦理性两个方面,各国各地都是从技术开发层面入手对人工智能进行部分约束和监管。
可见,现在我们已经来到了人工智能领域发展的转折点上,这半年多来,关于ChatGPT的讨论为人类社会敲响了警钟,这钟声在告诉我们,推动人工智能“安全、可靠、可控”,应当成为下一步人工智能规范体系建设的真正目的。
相关文章
猜你喜欢