> 自媒体 > AI人工智能 > ChatGPT爆红,谷歌:AI聊天技术发展过快或有损公司声誉
ChatGPT爆红,谷歌:AI聊天技术发展过快或有损公司声誉
来源:澎湃新闻
2023-04-24
121
管理

谷歌高管表示,若在人工智能(AI)聊天技术上进展太快,公司的声誉可能会受到损害。

据CNBC12月14日报道,AI聊天机器人ChatGPT的爆红让谷歌员工们担心公司是否“错失了一个机会”。对此,谷歌AI主管杰夫·迪恩(Jeff Dean)表示,公司的产品具备了类似能力,但提供错误信息会让公司面临大得多的“声誉风险”,所以他们的步伐要比小型创业公司更保守。

在最近的全体会议上,谷歌员工开始担心该公司在人工智能领域的竞争优势。背后的主要原因就是ChatGPT的火爆,这款AI聊天机器人于11月底向公众发布,并迅速成为推特上轰动一时的话题。

一些谷歌员工在思考公司在这场人工智能聊天机器人竞赛中处于什么位置。毕竟,谷歌的主要业务是网络搜索,一直都自诩为人工智能领域的专家。谷歌的人工智能聊天技术名为LaMDA,是对话应用语言模型(Language Model for Dialogue Applications)的缩写。

谷歌母公司Alphabet CEO 桑达尔·皮查伊(Sundar Pichai)和长期担任谷歌人工智能部门主管的迪恩回应称,该公司拥有类似的能力,但如果出现问题,代价会非常高昂,导致人们不再信任谷歌提供的答案。

“这确实找到了大家的需求,但也必须明白,这些模型存在一些问题。”迪恩说。

皮查伊在会议上表示,谷歌对2023年制定了许多计划,他认为“这是我们应当大胆行事并肩负责任的一个领域,所以需要进行平衡”。

迪恩告诉谷歌员工,到目前为止,该公司的技术主要是在内部使用。他强调,该公司面临着更多的“声誉风险”,而且“比小型初创公司更为保守”。迪恩说:“我们绝对希望把这些技术放到真正的产品中,并将其转化为更突出语言模型的东西,而不是隐藏在背后,这是我们迄今为止始终在使用它们的地方。但是,我们把这件事做好非常重要。”

“你们可以想象,对于类似搜索的应用程序,真实性问题非常重要,而对于其他应用程序,偏见、错误信息和安全问题也非常重要。”迪恩说,这项技术还不需要广泛推出,目前公开提供的模型还存在问题,比如AI会编造些东西。他称:“如果它们对某件事不是很确定,只会告诉你错误的答案。”

皮查伊认为,2023年将标志着AI在对话和搜索中的使用方式出现了“转折点”。他说:“我们可以戏剧性地发展和使用新的东西。”

摩根士丹利最近发表了一份关于这个话题的报告,研究ChatGPT是否会对谷歌构成威胁。该行Alphabet首席分析师Brian Nowak写道,看空谷歌的理由是,语言模型可能会夺走更多市场份额,“并破坏谷歌作为互联网用户门户的地位”。

不过,Nowak仍然对谷歌的优势充满信心,因为该公司正在继续改进搜索。此外,谷歌正在“构建类似的自然语言模型,如 Lamda”,他写道,“随着时间的推移,我们期待着他们逐渐推出更多产品。”

员工对谷歌搜索还存在其他担忧。除了疫情高峰期之外,该公司正经历2013年以来最慢的增长时期。搜索相关收入仅同比增长4%,整体广告业务增速也在放缓。

“我觉得这是个好问题——我看过所有相关文章。”皮查伊在内部会议上说,“我们取得了巨大进步,但人们也确实把我们做的一切视作理所当然,必须一直向前看。”

谷歌知识和信息部门高级副总裁Prabhakar Raghavan也回应称:“不可否认,我们必须采取措施,需要为用户提供答案,并针对他们提出的问题进行建模。”

“用户体验在不断进化——他们总会给我们提出新问题。”Raghavan说,“我们理应行动起来解决这些需求。”

数据显示,谷歌至少拥有90%的搜索市场份额,他们依然面临监管者的密切审查。而面临垄断指控,谷歌的高管最近也很愿意公开讨论该公司面临的市场竞争。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
轻随风之舞(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索