> 自媒体 > AI人工智能 > Google告诫员工!不要将机密信息输入Bard和ChatGPT等聊天机器人
Google告诫员工!不要将机密信息输入Bard和ChatGPT等聊天机器人
来源:INNOTREND
2023-06-23
268
管理

Google 告诉员工要谨慎使用 AI 聊天机器人。Alphabet 公司已经要求其员工不要将机密信息输入到 Bard 中,Bard 是由 Google 创建和运营的生成式 AI 聊天机器人,而 Alphabet 是 Google 的母公司。

据路透社在周四报道,该公司的警告还涉及其他聊天机器人,如由微软支持的 OpenAI 的 ChatGPT。这些由 AI 驱动的聊天机器人近几个月来引起了广泛关注,因为它们能够以类似于人类的方式进行对话、撰写论文和报告,甚至成功通过学术考试。但 Alphabet 担心其员工通过这些工具无意中泄露内部数据。

在持续改进和提高先进的 AI 技术的工作中,人工审核员可能会阅读用户与聊天机器人的对话,这可能会对个人隐私产生风险,并可能暴露商业机密,后者似乎是 Alphabet 特别担心的问题。

此外,聊天机器人部分是使用用户的文本交换进行训练的,因此,在某些提示下,该工具可能会重复从这些对话中收到的机密信息,并将其提供给公众成员。

与 ChatGPT 一样,Bard 现在可供任何人免费尝试。在其网页上,它警告用户:“请勿在巴德对话中包含可以用于识别您或他人的信息。”

它补充说,Google 收集“Bard 对话、相关产品使用信息、有关您位置的信息以及您的反馈”,并使用这些数据来改善包括 Bard 在内的 Google 产品和服务。

Google 表示,它会存储 Bard 活动长达 18 个月,但用户可以在其 Google 账户中将其更改为 3 或 36 个月。

它还说,作为一项隐私措施,在审核员看到这些对话之前,Bard 对话将与 Google 账户断开连接。

路透社说,尽管 Alphabet 的警告已经存在一段时间,但最近它扩大了警告范围,告诉其员工要避免使用由聊天机器人生成的精确计算机代码。该公司告诉新闻媒体,尽管 Bard 有时可能会给出“不需要的代码建议”,但该工具的当前版本仍被认为是一种可行的编程辅助工具。

Alphabet 不是唯一警告其员工有关使用聊天机器人所涉及隐私和安全风险的公司。在一些员工向 ChatGPT 中输入敏感的半导体相关数据之后,三星最近向其员工发出了类似的指示,苹果和亚马逊等公司据报道也已经采取了类似的内部政策。

1
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
般若鱼(普通会员)
点击领取今天的签到奖励!
签到排行
1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索