> 自媒体 > AI人工智能 > 智能并非万能,ChatGPT 虽火,但别忽视 AIGC 的黑与白!
智能并非万能,ChatGPT 虽火,但别忽视 AIGC 的黑与白!
来源:CSDN
2023-06-01
202
管理

ChatGPT、GPT-4 引领的 AIGC 浪潮已至,自动化、生成式的方式将为各行各业从底层研发工具、到中间层架构设计、再到上层应用带来一定的革新。

身处变革洪流之中的我们,盲目跟风势必不可取,那又该如何正确与理性看待这门技术,AIGC 将给我们带来哪些机会?通过这篇文章,我们希望能为大家带来一些思考。

文末有福利~~

AIGC 以其强大的创造能力、快速的反应能力、全面的输出能力,给人们带来震撼和冲击。基于大数据和大算力的支持,AIGC 大模型必将突破个人使用层面,从目前的写作、设计、编程、问答等业务,转向更广泛的应用场景,产生商业价值,为经济发展注入新动能,为产业变革带来新动力,助推社会生产力实现高质量跃迁。

就像一枚硬币总有两面,我们在看到 ChatGPT 在人工智能的赛道上高歌猛进时,同样也要意识到 AIGC 带来的风险和挑战。AIGC发展迅猛,相关法律法规尚未完善,其发展面临诸如数据安全与隐私保护、著作权争议等问题。

AIGC 的瓶颈

当然,AIGC 也存在发展瓶颈。AIGC 虽然发展迅速,却一直面临准确度的挑战,经常被人诟病生成的内容准确率不高、可信性不强、文本直接拼凑、没有逻辑性等,时常出现一些令人哭笑不得的错误。

除了技术本身的发展限制,引入技术的成本短期内也会大幅增加,算力和维护成本也是要面对的问题。AIGC 的运行需要庞大的算力支持,技术的发展也加剧着对算力的需求,这势必产生巨大的成本,甚至需要探索计算方式的变革。

此外,AIGC 的发展和应用也可能会造成人员失业问题,取代部分蓝领和白领的工作,由此带来社会大范围的焦虑和恐慌。

数据安全与隐私保护、著作权争议等问题也是AIGC 进一步发展的瓶颈。

在人工智能时代,数据被称作新一轮技术革命的“石油”,它既是最重要的资源,也是最大的隐患。AIGC 的生成能力来自数据和模型,而数据来源本身就会引起隐忧。AIGC 的发展同样需要面对和解决数据问题。

首先是数据来源的问题。AIGC 并不会凭空创造出数据,其生成能力是以现有数据为基础的,而数据来源本身就可能会涉及侵犯他人著作权、肖像权、名誉权、个人信息等多项权利的风险。如果使用的数据是未经文字、照片、影视、短视频等作品著作权人授权和许可的,则涉及侵犯著作权的情况;如果生成的内容出现侮辱、诽谤等情况,可能对他人产生负面影响,涉及侵犯名誉权的问题;如果使用人脸等个人生物识别信息,也可能存在侵犯公民个人信息安全的风险。再者是数据传输和保护的问题。

以 ChatGPT 为例,用户在对话框中输入文字内容后,该内容首先会传输到 ChatGPT 的服务器上,随后 ChatGPT 才会给出相应回答,这些服务器可能部署在国外的某个机房中,在短暂的时间内数据就完成了多次跨境传输。用户在使用ChatGPT 时很有可能无意间造成个人信息、隐私信息、商业秘密等信息的泄露。为此,微软、亚马逊等公司已经提出禁止员工对 ChatGPT分享任何机密信息,防止出现泄露商业秘密的问题。而负有保密义务的用户在使用 ChatGPT 和类似的人工智能工具时,更应当注意保护隐私信息,以免出现泄密行为。

应对 AIGC 带来数据风险问题的首要路径是遵守相关法律法规,各国针对数据安全、个人信息保护都制定了相关的法律法规,我国的《网络安全法》、《数据安全法》及《个人信息保护法》等法律对数据及个人信息保护都做出了规定,在收集和使用数据时应该遵守相关规定。

法律具有滞后性,无法跟上技术发展的速度,生成式 AI 对原有法律规定也提出了挑战,例如,给备受关注的欧盟《人工智能法案》(AI Act)的出台和谈判增加了诸多困难。但是各国均在积极应对,出台政策或者法律规定,以保障网络用户的合法权益。2023 年 1 月10 日,《互联网信息服务深度合成管理规定》正式施行,这是我国第一部针对深度合成服务治理的专门性部门规章,对深度合成服务提供者和技术支持者进行了规定,要求加强训练数据和技术管理,保障数据安全,不得非法处理个人信息。AI 合成平台必须要求内容创作者实名认证,监督创作者标明“这是由 AI 合成”之类的标识,避免公众混淆或者误认,并且要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。如提供合成人声、人脸生成等生物识别信息编辑功能的,应当依法告知被编辑的个人,并取得其同意。

在跨境传输数据方面,也有相应法律法规,数据传输方需要主动进行数据出境风险自评估,为数据出境申请必要的授权或许可,并定期评估和审计数据出境的情况,维护国家数据安全。此外,还可以通过强化数据安全治理的技术手段,加强技术研发、资产保护、隐私保障和数据加密;加强 AIGC 全生命周期的网络安全测评,强化安全框架,保持对系统的检查与对抗检测;明确监管责任,提高算法的透明性,加强算法问责,建立人工智能生成内容鉴别机制。

除了数据的问题,AIGC 也会带来著作权方面的争议。根据我国《著作权法》的规定,自然人和法律拟制的人是享有著作权和履行义务的主体。由此,AIGC 不能作为著作权的主体,但这也并不意味着AIGC 创作的内容不受法律保护。目前观点认为,AIGC 生成的原创性内容,实际上是人机合作的智力成果,因此,人工智能创作内容完全可以认定为属著作权所保护的“作品”范畴,著作权归属于人工智能软件开发者。此前,在腾讯诉盈讯科技侵害著作权案中,法院认定腾讯公司开发的 Dreamwriter 智能写作助手生成的财经文章是腾讯公司主持创作的法人作品,保护了其著作权。这一判决有利于鼓励相关人工智能产品的创新发展。

如前所述,AIGC 创作是需要素材的,不可避免会涉及对他人享有著作权的作品的使用,而按照当前著作权法的要求,使用人使用相关作品时,必须获得权利人许可,支付相应的许可使用费。因此,AIGC 如未经许可使用作品,可能会陷入侵权困境。此类案例屡见不鲜。如 2023 年 1 月,全球知名图片提供商华盖创意(Getty Images)起诉 Stable Diffusion 的开发者 Stability AI,控告其未经许可对平台上数百万张图片进行窃取。2023 年 2 月,《华尔街日报》记者弗朗西斯科·马可尼(Francesco Marconi)也公开指责,Open AI 公司未经授权大量使用路透社、《纽约时报》、《卫报》、英国广播公司等国外主流媒体的文章训练 ChatGPT 模型,但从未支付任何费用。

目前,一些国家和地区已尝试出台了关于“文本和数据挖掘例外”“计算机分析例外”等与 AI 使用作品相关的著作权侵权例外制度。在我国,根据“使用他人作品时应当取得著作权人的授权”的一般规定,AIGC 进行内容生成的过程中,应当审查素材数据库中是否存在受著作权保护的作品,对于相关作品,应当取得相关著作权人的授权,以避免陷入著作权侵权纠纷。

总体而言,虽然 AIGC 在数据安全和著作权等方面面临一定的风险和挑战,但其以巨大的实用性和灵活性为业务流程带来了不可替代的高效和不可逆转的变革。而且,随着 AIGC 的发展,越来越多的科技企业将会加入这一赛道,AIGC 也将在更多行业得到更广泛的应用。法律本身不应成为限制技术进步的桎梏,新技术的产生也势必会带来法律挑战。法律虽然具有滞后性,总体上落后于社会生活实际,但应该积极做出回应,促进科技进步,确保科技向善,助力行业发展,实现产业升级。

以上节选自《生成式人工智能》一书,版权归中信出版集团所有,未经允许请勿转载。

为感谢读者的长期关注与支持,CSDN联合中信出版集团为读者谋福利,将从关注CSDN公众号的小伙伴中抽取5位幸运儿,赠送《生成式人工智能》一本,与大家共享 AIGC 新浪潮。

福利之赠书规则

在下方留言,分享「你对 ChatGPT 或类 ChatGPT 发展的看法、见解、应用的感受」;

我们会把有价值的评论放出,CSDN 将 越高,获奖的几率越大哦;

截止时间:6 月 2 日 17:00。

赶快行动吧~~

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
榴莲啾啾啾(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索