> 自媒体 > AI人工智能 > 西湖大学学者:人类和ChatGPT应该是互补关系,而不是替代关系
西湖大学学者:人类和ChatGPT应该是互补关系,而不是替代关系
来源:DeepTech深科技
2023-06-19
194
管理

人工智能时代已经到来。在过去的想象中,机器人可以快速地计算,也可以在极端环境下工作。但是,其最大的缺点在于,无法体会人类的语言和情感,不能进行创造性的思考。

然而,从战胜全球顶尖棋手的 AlphaGo 到 OpenAI 创造的大语言模型 ChatGPT,人工智能正在一步一步地解构人类的思考逻辑和语言模式。换句话说,我们正在赋予人工智能更多的人类特征。最重要的是,ChatGPT 所代表的人工智能,具有非常快速的学习能力。

人工智能正在涉足各行各业,从金融到科技,从设计到工业生产。ChatGPT 的到来,作为科技界近两年来最大的突破之一,蕴藏着巨大的机遇,同时也让我们担心,一部分岗位是否会被语言类 AI 取代。如果社会模式因为这些人工智能发生改变,我们能做什么?

此刻,ChatGPT 是一个窗口,让我们得以提前窥见充斥着人工智能的世界,以及在这样的世界中,人类处于何种地位。这种前瞻式的引导,将帮助我们更好地理解 ChatGPT,以及其他各种形式的人工智能。

成生辉是西湖大学工学院和未来产业研究中心研究员、智能可视化实验室负责人。近日,他出版了新书《ChatGPT——智能对话开创新时代》。基于他在元宇宙、人工智能、可视化、可视分析等领域的丰富经验,该书将深入 ChatGPT,展示 AI 生成的内容如何彻底改变人们的思考、写作和交流方式。

(来源:《ChatGPT——智能对话开创新时代》)

接下来,本文将分享书中以及成生辉关于 ChatGPT 前沿观点和思考,来帮助读者理解一个嵌入 ChatGPT 的社会将如何运行,未来又将走向何方。

ChatGPT 是由 GPT 模型驱动的,因此,ChatGPT 本质上是一款 AI 产品,其背后的 GPT 模型是由 OpenAI 研发的一种大语言模型(Large Language Model,LLM)。LLM 是一种基于深度学习技术的自然语言处理模型,旨在理解和生成人类语言的文本。

在训练模型的过程中,通常会使用人类反馈强化学习(Reinforcement Learning from Human Feedback, RLHF)来改进模型。专家会对大语言模型输出的结果进行评估和反馈,给出奖励或惩罚信号,以改进和调整模型。模型根据这些反馈信号进行再学习,以提升其性能和效果。

大语言模型能够通过学习海量的文本数据,掌握语言的语法、语义和上下文信息,并能够生成具有连贯性和合理性的文本。

它可以预测给定上下文下的下一个单词、补全句子、回答问题、生成对话等。目前,指令微调大语言模型是 LLM 研究和实践的主要方向之一,它能给出更加准确的信息,同时也能保证输出无害的信息。在 OpenAI 等 AI 公司的努力下,指令微调 LLM 更加安全且更符合人类价值观。

ChatGPT 诞生后,其它互联网公司也发布了类似的语言类人工智能产品,例如,百度的“文心一言”、华为的“盘古”模型和阿里的“通义千问”等。

这些模型背后的技术原理相似,甚至一些应用是直接调用 GPT 模型的接口,其差异性主要体现在模型性能上。目前这些语言类 AI 中,ChatGPT 在响应速度和准确性上的优势比较明显。

由于国外对于大语言模型的研究起步较早,并且 OpenAI 投入了极大规模的研发成本,包括研发人员成本、训练模型使用的设备成本、训练用的语料库数据成本等。中国对于语言类 AI 的模型开发起步略晚,但是研发的速度很快,势头也比较猛。

(来源:Pixabay)

在用户体验中,常常会碰到 ChatGPT 或者其它语言类 AI 答非所问的情况,而这与用户提问的精准性是密切相关的。

首先,要保证可以给出清晰而具体的提问,要能够给出尽量准确的关键词。清晰且具体的表述,可以降低模型给出无关或错误响应的概率。对于一个过于复杂的目标来说,适当的拆解目标,然后发出指令是可行的方法之一。例如,如果直接对 ChatGPT 发出“写一篇关于 AI 的文章”的指令,大概率会得到一篇不知所云的文章。

一种可行的方法是,把“写一篇关于 AI 文章”的大目标拆解为小目标,从框架到每一段的中心思想,逐步的向 ChatGPT 发送指令,以达到完成一篇文章的目标。

其次,要学会引导模型,并适当矫正模型给出的答案,避免 AI 模型自行编造。目前,ChatGPT 已经深入到各个领域,包括创意、教育、技术、服务等各行业。对教育行业来说,ChatGPT 可以作为学生个性化学习辅助的工具。它可以回答学生的问题,提供解释和示例,帮助学生理解复杂的概念和知识点。通过与 ChatGPT 的对话,学生可以得到即时的反馈和指导。

此外,ChatGPT 可以大大提升学生获得信息的效率。对服务行业来说,ChatGPT 可以充当客服的角色。其实,AI 客服在服务行业中已经得到了广泛的应用。但是,之前的 AI 客服只能反馈一些既定的模板式的答案,而语言表达不够自然流畅。

ChatGPT 生成的语言更接近人类语言,且能够根据不同的需求生成更有针对性更具体的反馈。可以说,ChatGPT 不再是一个没有感情的模型,而越来越往富有“人性化”的方向发展。

(来源:Pixabay)

然而,就像核武器一样,任何技术都是一把双刃剑。由于 ChatGPT 生成回复的方式是基于模型的训练数据,它可能无法始终保证提供的信息是准确、可靠的。

在某些情况下,它可能生成错误的回答或误导性的内容,特别是当模型没有足够上下文或相关信息的时候。例如,对于晦涩的问题,ChatGPT 可能会编造谎言,且 ChatGPT 在数理推理上的表现较差。

其次,使用 ChatGPT 时,用户输入的信息可能会被记录和存储。这就会引发隐私和数据安全的问题,尤其是对于涉及敏感个人信息或商业机密的场景。

更为重要的是,ChatGPT 的应用还有许多法律和道德责任的问题没有解决。例如,责任归属、算法透明度、版权和知识产权等。可以肯定的是,人类将不会容许 ChatGPT 游走在法律的边缘。

一个被广泛讨论的场景是,ChatGPT 应用于学生论文写作或帮助完成作业。学习本身是一种思维训练,通过做作业的过程实现思维模式的培养。所以,如果学生依靠 ChatGPT 来完成作业,就会丧失自我思考的能力。

在写论文场景中,基于相关实验,ChatGPT 生成的大部分文献都是虚假文献。因此,使用 ChatGPT 完成的论文,完全不符合高校论文的标准,并且学生还要花大量时间对其进行修改。所以,在学习中滥用 ChatGPT 并非明智的选择。然而,ChatGPT 具有非常高效的信息检索能力,完全可以作为辅助学习的效率工具之一。

另外,ChatGPT 会让很多行业消失,这是很多人所担心的事情。ChatGPT 及其他生成式 AI 的发展确实可能对某些行业和职业带来一定的影响,但是否会导致大规模失业现象尚不确定。

对此,成生辉表示:“我认为ChatGPT 及生成式 AI 和人类相比,在创造性思维、情感理解以及较为复杂的决策性事务上并不具备优势。因此,人类和 ChatGPT 之间应该是互补关系,而不是简单的替代关系。”

此外,ChatGPT 等产品的发展可能创造出新的就业岗位,例如提示工程师等,可以利用这些技术创造出新的应用场景和商业模式。

那么,我们应该怎么面对 ChatGPT 所带来的巨大改变?

成生辉认为,随着技术的发展,职业环境不断演变,人们需要适应变化并不断更新技能。在面对 ChatGPT 等技术工具时,人们可以通过转型和学习新的技能来适应变化,包括培养专业技能、加强创新思维和解决复杂问题的能力,以及与 AI 工具协同工作的能力。

AI 时代势不可挡,尽管对于人工智能语言模型还没有合理合法的管控,但是 ChatGPT 所展现的能力已经足够让我们看见人工智能时代的未来场景。

对此,我们已经没有时间去担忧和恐惧,应该最大程度地发挥 ChatGPT 等 AI 的功能,进一步拟人化 AI 工具,同时构建一个靠谱的“护栏”,帮助人们颠覆生产的模式。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
赶海的老阿姨(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索