来源:Cyberhaven
Cyberhaven数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。
和三星一样,所有“限用”ChatGPT的企业,无论处于什么领域,基本都是出于数据保护的考量,都非常担忧第三方软件访问敏感信息带来的风险。毕竟ChatGPT所处理的数据通常具有多样性和复杂性,其数据的收集、存储、传输、处理等各个环节,都存在“合法性”问题。
随着ChatGPT在自然语言处理领域的广泛应用,人们面临数据安全和隐私保护的挑战,正变得越来越巨大。
机遇与风险并存技术发展史,也是人类的一部恐惧史。
15世纪的德国学者面对刚刚发明的古腾堡印刷机非常担忧,认为这会让他们有永远也无法读完的文献,而他们的作品也不再稀缺,而且会导致大量抄写员失业。
再到工业革命时期的“卢德运动”,工人们拆除编织机的关键零件,袭击仓库,并威胁采取更多的暴力行动。实际上这些操作机器的工人非常清楚设备的生产效率,他们采取行动并非针对机器,而是针对厂方降低工资、裁撤岗位和忽视生产安全的做法。
新技术问世后总会有一段过渡期,这也是社会对它关注最密切的时期。ChatGPT展现出的能力很强大,让很多企业开始积极拥抱,也让很多企业感到“害怕”。
数据安全问题的确是不得不提防的一点。越是大公司,或者越是有着数据安全和隐私枷锁的公司,越会谨慎地去对待类似的工具。三星的做法算是“稳妥”的,毕竟大型企业除了内部数据,更重要的是掌握着很多客户数据,一旦发生了数据泄露事件,后果不堪设想。
只是,有时候提防和运用并不冲突。
如何才能既能拥抱机遇,又能化解风险?对于这些大企业们来说,目前似乎只有一条路可选,即研发出自己ChatGPT。这样不仅解决了风险,还能提高企业员工的工作效率。以三星来说,虽然“限用”ChatGPT,但并没有完全禁止使用。
为了避免内部信息泄露,三星计划开发自己的内部AI工具,供员工完成软件开发和翻译等工作。此外,三星还向旗下所有的手机以及平板电脑产品推送了微软Bing AI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软Bing AI。
图:三星手机内嵌微软Bing AI (语气使用)
除了企业的主动防范,ChatGPT无疑也需要加强对用户隐私的保护,包括匿名化处理、数据去标识化、隐私保护算法等。特别是在数据共享和开放研究方面,ChatGPT需要遵循相关法律法规和伦理准则,采取有效的隐私保护措施,保障用户的隐私权益。
此外,ChatGPT需要积极参与到数据安全和隐私保护的标准制定和监管政策建设中。通过制定统一的数据安全和隐私保护标准,加强监管和法律保障,促进数据共享和合作,从而更好地保护用户的隐私和数据安全。
相关文章
猜你喜欢