在过去的将近一年里,由于流行的人工智能聊天机器人 ChatGPT 的出现,孩子、老师和家长都不得不恶补关于人工智能的知识。
为了防患于未然,一些学校,如纽约市公立学校,很快禁止了这项技术,但几个月后又取消了禁令。现在,许多成年人已经了解了这项技术,学校也已经开始探索如何使用人工智能系统来锻炼孩子们的批判性思维。
(来源:AI 生成)
但孩子们在学校和日常生活中遇到的不仅仅是人工智能聊天机器人。人工智能越来越普及:在流媒体上向我们推荐节目,协助语音助手回答我们的问题,驱动社交媒体的内容过滤工具,以及提供解锁智能手机的新方式。
麻省理工学院教授、杰梅尔诊所人工智能系主任瑞吉娜·巴兹雷(Regina Barzilay)表示,尽管一些学生总是比其他学生对人工智能更感兴趣,但了解这些系统如何工作的基本原理,正成为一种技术素养的基本形式,这是每个高中毕业的人都应该知道的。该诊所最近为 51 名高中生举办了一个暑期项目,这些学生对人工智能在医疗保健中的应用很感兴趣。
她说,应该鼓励孩子们对在我们生活中越来越普遍的系统感到好奇。她补充道:“展望未来,如果只有上过大学、学习数据科学和计算机科学的人了解它的工作原理,就可能会形成巨大的差异。”
在新学年开始之际,以下是《麻省理工科技评论》关于如何开始教育孩子什么是人工智能的六条重要建议。
记住,人工智能不是你的朋友
聊天机器人被创造出来的目的只有一个:聊天。ChatGPT 在回答问题时所用的友好、对话式的语气会让学生很容易忘记他们是在与人工智能系统互动,而不是与值得信赖的好友互动。这可能会让人们更有可能相信这些聊天机器人所说的话,而不是对其所给出的回应持怀疑态度。
美国老多米尼克大学(Old Dominion University)专门研究教育数字创新的教授海伦·克伦普顿(Helen Crompton)表示,虽然聊天机器人非常善于扮演一个貌似富有同情心的“人”,但它们只是在使用互联网上收集的数据,并模仿人类说话的方式。
她说:“我们需要提醒孩子们,不要向 ChatGPT 这样的系统提供敏感的个人信息,因为这些信息都会进入一个大型数据库。”一旦你的数据出现在数据库中,就几乎不可能删掉。它可能在未经你同意的情况下被用来让科技公司赚更多的钱,甚至可能被黑客提取。
人工智能模型不是搜索引擎的替代品
大型语言模型的好坏取决于训练它们的数据。这意味着,尽管聊天机器人善于用看似合理的文本自信地回答问题,但它们提供的信息并不都是正确或可靠的。
众所周知,人工智能语言模型也会将虚假信息作为事实来呈现。这也被称为“人工智能幻觉”。根据这些数据收集的地方,它们可能会使偏见和潜在的有害刻板印象长期存在。学生对待聊天机器人回复的态度,应该像对待在互联网上见到的任何类型的信息一样:保持批判性。
斯坦福大学教育研究生院副教授维克多·李(Victor Lee)为高中课程创建了免费的人工智能资源,他说:“这些工具并不能代表所有人,它们告诉我们的是基于它们所接受的训练。不是每个人都会在互联网上活动,所以这些人不会被反映(代表)出来。在我们点击、分享或转发之前,学生们应该停下来反思,对我们所看到的和相信的更加挑剔,因为很多都可能是假的。”
英国谢菲尔德哈勒姆大学生物科学教育教授大卫·史密斯(David Smith)表示,虽然使用聊天机器人解决学业上的问题可能很诱人,但它们并不能取代谷歌或其他搜索引擎。他说,学生们不应该认定大型语言模型所说的一切都是无可争议的事实,并补充道:“无论它给你什么答案,你都必须检查一遍。”
老师可能会指责你用了人工智能,但事实上你没有
现在,生成式人工智能已经广泛普及,教师面临的最大挑战之一是确定学生是否使用了人工智能完成作业。虽然许多公司已经推出了承诺检测文本是由人类还是机器编写的产品,但问题是,这些人工智能文本检测工具非常不可靠,而且很容易被欺骗。有很多例子表明,教师认为一篇文章是由人工智能生成的,而事实并非如此。
李说,重要的第一步是,熟悉孩子所在学校的人工智能政策或人工智能披露流程(如果有的话),并提醒孩子遵守这些政策。克伦普顿说,如果你的孩子被误认为在作业中使用人工智能,记得保持冷静。她补充道,不要害怕质疑,询问这个决定是如何做出的。如果你需要证明你的孩子没有直接复制粘贴 ChatGPT 生成内容,要记得 ChatGPT 会默认保存个人用户的对话记录。
推荐系统旨在让你上瘾,并可能向你展示糟糕的东西
芬兰赫尔辛基大学计算机科学教授提姆·鲁斯(Teemu Roos)正在为芬兰学校开发人工智能课程,他说,理解并向孩子们解释推荐算法是如何工作的很重要。科技公司通过人们在其平台上观看广告来赚钱。
这就是为什么他们开发了强大的人工智能算法来推荐内容,比如 YouTube 或 TikTok 上的视频,这样人们就会上瘾,并尽可能长时间地使用。算法会追踪人们观看的视频类型,然后推荐类似的视频。例如,你看的猫猫视频越多,算法就越有可能认为你想看更多的猫猫视频。
鲁斯补充道,这些推荐服务往往会引导用户看到更多虚假信息等有害内容。这是因为人们倾向于停留在奇怪或令人震惊的内容上,比如关于健康的错误信息或极端政治意识形态,很容易陷入信息茧房,所以最好不要轻易相信在网上看到的一切。你也应该仔细检查其他可靠来源的信息。
安全、负责任地使用人工智能
生成式人工智能不仅仅局限于文本,有很多免费的深度伪造(deepfake)应用可以在几秒钟内将某人的脸安在别人的身体上。虽然学生可能已经知晓在网上分享私密照片的危险,但他们也应该同样警惕将朋友的脸上传到低俗应用程序中,因为这可能涉嫌违法。例如,有法院曾认定,青少年发送关于其他青少年甚至自己的私密照片,是在传播儿童色情内容。
李说:“我们与孩子们就负责任的网络行为进行交流,既为了他们自己的安全,也为了不骚扰或引诱他人,但我们也应该提醒他们自己的责任。就像恶劣的谣言传播一样,你可以想象当有人开始传播虚假图片时会发生什么。”
李指出,这也有助于为儿童和青少年提供使用互联网的隐私风险或法律风险的具体例子,而不是试图与他们谈论整体却模糊的规则或指导方针。例如,他说,与告诉他们“注意隐私”的普通警告相比,与他们讨论人工智能人脸编辑应用将如何留存他们上传的图片,或将其指向平台被黑客入侵的新闻故事,这样做会给他们留下更大的印象。
不要错过人工智能真正擅长的东西
不过,我们并不能只看到悲观的一面。虽然早期课堂上关于人工智能的许多讨论都围绕着它作为作弊辅助工具的潜力展开,但当它被聪明地使用时,可能成为一个非常有用的工具。
面对一个很难理解的棘手问题,学生可以要求 ChatGPT 一步一步地为他们讲解,或者将其改写为说唱的形式,或者扮演生物老师的角色,让其测试自己的水平。它还特别擅长快速绘制详细的表格,来比较各个大学的优劣。换成人类的话,这往往需要数小时的研究和编辑。
克伦普顿指出,向聊天机器人查询高难度单词的词汇表,或在测验前练习历史问题,或帮助学生在写完答案后评估答案,都是对他们有益的用途。
她说:“你只需要记住它有偏见、幻觉和不准确的倾向,以及你自己培养数字素养的重要性就够了。如果学生以正确的方式使用它,那就太棒了。这个技术太新了,我们也只是摸着石头过河。”
支持:Ren
相关文章
猜你喜欢