> 自媒体 > AI人工智能 > ChatGPT,把三星给坑哭了
ChatGPT,把三星给坑哭了
来源:锋潮评测
2023-05-11
222
管理

各位机友,在上班滴时候,有没有想过找人代劳呢?

在不影响工资的情况下,没人能拒绝上班摸鱼的诱惑。

如果,为你提供帮助是 AI,而不是同事,那就更棒了。

毕竟,有些工作上要保密的事情,连同事都不能说。

比方说,机哥给八弟搞员工福利买下午茶的时候,为了方便付款,就问过老板银行卡密码是多少。

但他一直都没告诉我。

真不是机哥吹的,著名的国际大厂--三星,近期就遇到了这个问题。

3 月 11 日,三星引入 ChatGPT 以来,员工就接连整出狠活。

在短短 20 天的时间内,他们发生了三起泄密事件。

而且,都在三星最关键的半导体的同一个部门里。

不是一家人不进一家门啊这是……

首先。

有一名员工,在进行软件测试的时候,把出问题的代码发给 ChatGPT,请教解决办法。

这个操作让三星的一部分源代码,变成了 ChatGPT 的学习资料。

后面一查一个准,估计三星自己都没想到还能这样泄密。

发生这三起泄密事件之后,为了亡羊补牢,三星内部开始严格限制使用 ChatGPT 。

例如,将提问限制在1024个字节以内。

但是,这无法从根源上解决问题。

于是,三星近期干脆禁止使用生成式 AI,避免这一渠道的泄密事件再次发生。

据媒体报道,最近三星已通过备忘录告知员工,暂停使用生成式 AI 工具。

包括但不限于我们所熟知的 ChatGPT、Bard、Bing 等。

不过,虽然三星不用别家的 AI 了,但是并不代表三星不用 AI。

据说,它正在开发自己用的 AI 工具,用于翻译文件和软件开发。

只不过,在做好安全措施之前,三星仍然会限制生成式 AI 工具的使用。

比如说,机哥自己在玩的一款产品,就非常实诚。

它明确告知我这一风险。

也许个人身份信息会被隐去或者替换,但对话内容还是能被访问,用于模型训练,提高它的对话能力。

因此,最好不要和它们谈及有关隐私和机密的内容。

如果大家想继续使用 AI 产品,又不想把隐私暴露给它背后的公司。

机哥这边倒是有几个小建议。

首先,了解这类产品的隐私政策,以及它对用户信息的保护措施,挑选更加安全的产品。

你可以就这些话题,直接对它进行提问。

图片来自网络

1
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
经典好看视频(普通会员)
点击领取今天的签到奖励!
签到排行
1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索