图片来源/新华社
■张炜
中国支付清算协会4月10日发出《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称《倡议》)指出,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatG?PT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。
上海国家会计学院数字金融研究中心主任马长峰在接受中国经济时报采访时表示,在AI和大数据时代,数据的流动很容易出现越界,比以往任何时候都面临更大的数据泄露风险。ChatGPT能够带来巨大便利,提高自身效率、减轻工作量。但对于有的行业来说,ChatGPT带来的数据泄露风险不容忽视。
“ChatGPT受到热捧,基于ChatGPT的服务日益增多,国内金融业也以较大热情参与应用和创新。但ChatGPT服务器部署在国外,将其引入国内金融业应符合《网络安全法》等法律法规。应用ChatGPT可能涉及用户信息和数据,应严格遵循《数据安全法》等规定,不得上传敏感信息,不得泄露客户隐私。”招联首席研究员董希淼在接受中国经济时报采访时说。
博通咨询研究院首席分析师王蓬博向中国经济时报分析认为,ChatGPT需要对数据库不断更新,运行逻辑是通过大量的文本收集、数据训练回答客户问题,而金融从业者若使用ChatG?PT需要添加内容数据做训练,就会存在金融数据隐私及安全问题,即使用户是无意识的行为,也很有可能造成个人信息和数据的泄露。
作为支付清算服务行业自律组织,中国支付清算协会向行业发出三点倡议:一是提高思想认识,依法依规使用;二是不上传关键敏感信息;三是会员单位加强内部管理和引导《倡议》要求,支付行业从业人员在使用ChatG?PT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
马长峰认为,中国支付清算协会的《倡议》非常及时,因为支付行业存在数据泄露风险。“对内可能泄露客户隐私或者商业机密,这些数据泄露如果跨境可能引发经济安全问题。”他说。
董希淼表示,中国支付清算协会的《倡议》正当其时,对整个金融行业和从业人员都是一次提醒,具有较强的针对性。金融机构应从三个方面加强客户信息保护:第一,在思想上高度重视客户信息保护。应将保护个人信息的理念内化于银行“血液”中,以最严格标准和最严密措施确保客户信息安全。第二,建立信息数据库分级授权管理制度。根据个人信息的重要程度、业务需要、敏感程度等,实行分级管理。在个人信息处理过程中,应在技术上对客户信息复制、查询有硬约束。第三,加强金融信息安全保护的宣传教育。
“金融行业是一个严监管的行业,对于个人信息和相关的商业数据特别敏感。”王蓬博说,金融机构使用类似的ChatGPT产品,要先进行可控范围的评估,做好预防措施。预计在数据安全相关法律法规的政策框架范围内,未来有可能出台相关补充的监管政策。
业界认为,谨慎使用ChatGPT不等于排斥对相关金融科技的探索。董希淼表示,ChatGPT及类ChatGPT产品在金融业应用场景丰富,如果符合风控和合规要求,将在满足客户需求、提升风控能力、降低经营成本等方面发挥积极作用,应用前景十分广阔。金融机构应高度关注人工智能等前沿技术和应用,以核心客户需求为导向,适时加大前瞻性投入和布局,持续提高金融科技发展水平,加快推进和深化数字化转型,不断提高客户服务能力和客户体验,提升为实体经济服务质效。
本公众号版权归中国经济时报所有。如转载或引用本文内容须经许可,并注明转自中国经济时报。
热点链接
●税收优惠再发力①丨税收优惠实招加力 提振企业科技创新信心
●时报时评丨消博会:与世界共享开放机遇
●关注丨利好政策频出 国有石油公司加速布局新能源产业
●资本市场丨上市银行可在住房消费金融等领域开辟新蓝海
●市说新语丨腾讯、抖音和解或推动长短视频大融合
总 监 制丨王辉 王继承
监 制丨李丕光 王彧 刘卫民
主 编丨毛晶慧 编 辑丨陈姝含
【中国经济时报--中国经济新闻网 http://www.cet.com.cn】
相关文章
猜你喜欢