8月25日,奇安信集团在京发布了Q-GPT(奇安信大模型)安全机器人和大模型卫士。Q-GPT安全机器人是基于奇安信大模型的“虚拟安全专家”,可以全天候工作,一台机器人等于60多位安全专家,可产生约2000万元的运营效益,极大提升了生产力。大模型卫士集安全风险发现、大模型访问控制、数据泄露管控、违法违规行为溯源、大模型应用分析等为一体,帮助企业更安全的向大模型要生产力。
在会上,京东方集团和吉利汽车集团等客户现场签约,成为国内首批Q-GPT安全机器人和安全大模型用户。同时,大模型卫士现场获得了国内多家客户的签约意向。
吉利汽车集团有限公司安全总监徐正伟表示,车联网是当前非常热门的领域,智能网联汽车除了拥有车辆本身数据外,还包括城市交通数据和用户个人数据等等,具有极高价值,数据安全关乎着国家安全和个人安全。面对来自云、网、端等越来越复杂的安全风险,我们期望使用Q-GPT安全机器人,就像雇佣了一个高级安全专家团队,能够提升吉利汽车的整体安全能力。
解决“想用不敢用”难题,大模型卫士助企业解放生产力
“ChatGPT等大模型,会泄露企业的商业秘密,已经引起广泛关注。据统计,在使用ChatGPT的员工中大多数会泄露数据,其中11%的数据为企业敏感数据。而越来越多的办公产品如Microsoft 365 Copilot、WPS AI、通义听悟等都集成了大模型,就意味着将有更多的员工使用大模型,这会加剧企业敏感数据的泄露风险。解决大模型数据泄露难题,迫在眉捷。”奇安信集团副总裁张卓表示。
此次发布会,奇安信正式推出业内首款大模型卫士产品,解决广大企业客户对于大模型“想用不敢用”的顾虑,让他们能够用好大模型提升核心竞争力。
张卓认为,数据泄露带来的直接结果,就是企业核心竞争力的逐步丧失。以某行业龙头企业A为例,该企业拥有大量核心技术专利,形成了强大的技术壁垒,然而,由于员工大量使用大模型应用处理日常工作,且缺乏监管,最终数据投喂过程中公司敏感技术信息不断泄露,时而久之,这些重要技术信息变成GPT知识库的一部分,又通过GPT传授给同行对手企业,导致企业的核心竞争力逐步丧失。
相反,作为一家现代企业,如果不积极使用GPT改进自己的技术、产品和市场推广,就会有落伍的风险。张卓进一步指出,行业里有一个共识,不掌握GPT方法的人,会失业;不使用GPT的企业,会落伍。
与此同时,数据安全相关法律法规为大模型应用定下了监管红线。我国相继出台了《网络安全法》、《数据安全法》、《中华人民共和国个人信息保护法》,以及数据跨境相关法律监管体系,这要求企业在使用大模型时亟需守住合规底线。
针对这些情形,奇安信发布了大模型卫士,为企业在使用大模型过程中提供四重防护:
第一是防止数据投喂造成的敏感数据泄露。包括建立内部技术监管手段,防止员工向大模型投喂敏感数据。
第二是建立身份识别与溯源机制。把身份与数据关联,在发生数据泄露风险时,找到数据泄露的主体。
第三是避免触发数据跨境安全监管红线。有效监控对ChatGPT等国外大模型的数据投喂行为,避免数据跨境安全违法的发生。
第四是对企业内部大模型应用状况全面分析。对员工的大模型应用状况进行分析,快速、有效的利用大模型技术重构企业经营生产活动流程,调整资源配置。
目前,大模型卫士能够完美适配主流大模型应用,并在终端侧和网络侧,通过检测审计平台、安全代理网关(SWG)等工具,对GPT实现精准管控,全面降低数据安全风险。
“针对汹涌而来的大模型浪潮,促进发展和防范风险需要两者并重。”张卓表示,大模型卫士能帮助企业发现大模型使用过程中的安全风险、实时管控大模型访问和数据投喂过程、提升企业的大模型应用能力、溯源违法违规行为,最终让企业更放心地使用大模型技术,更安全地提升生产力,为大模型健康发展保驾护航。
当前,国内“百模大战”如火如荼,通用类、垂直类井喷之势发展。IDC预测,2026年中国AI大模型市场规模将达到211亿美元,人工智能将进入大规模落地应用关键期。随着Q-GPT安全机器人和大模型卫士两款产品的发布,奇安信将充分依托安全和人工智能两大领域的深厚积累,帮助广大政企客户向大模型要生产力,走好数智时代的发展之路。
相关文章
猜你喜欢