Nature Machine Intelligence最新研究工作,结合大型语言模型(LLM)ChatGPT在概念和技术层面上指导机器人设计过程,提出了新的人类 - 人工智能协同设计策略。
https://www.nature.com/articles/s42256-023-00669-7#Sec1
大型语言模型将通过为机器人提供前所未有的理解和分析自然语言的能力,从根本上改变机器人格局。LLM的主要优势在于它们能够处理和内部化大量文本数据,例如说明,技术手册和学术文章,并使用这种隐含知识真实而连贯地回答问题。在机器人技术中利用这些强大的人工智能工具的潜力已经通过它们从文本提示合成代码的能力得到了证明。微软、Google等研究工作已经将自然语言指令转换为机器人可执行的操作。
然而,LLM的可用性和功能的最新改进开辟了新的机会,它们现在可能导致机器人设计的另一个瓶颈。利用其新兴能力LLM可以提供一种对话,教育和指导人类构建机器人。这些功能可以从根本上改变我们设计机器人的方法,改变人类的角色,丰富和简化设计过程。那么,LLM如何改变机器人设计过程,相关的机遇和风险是什么?
为了探索这个问题,考虑了一个由“用机器人帮助世界”的愿望驱动的人类的案例研究,提出了一个用 ChatGPT-3 设计的机器人。这里分两步完成这项任务。在第一个高级阶段,计算机和人类在概念层面上协作,讨论想法并概述机器人设计的规范,而在第二阶段进行物理实现。
在构思阶段,人类首先询问LLM人类未来的挑战是什么,并迅速了解主要危害的概述,如下图所示。接下来,人类选择最有趣和最有前途的方向,通过进一步对话缩小设计空间。这种交互可以跨越多个知识领域和抽象级别,从概念到技术实现。在这个过程中,人类依靠人工智能伙伴来获取人类个人专业知识之外的知识。人工智能模型帮助人类探索农业和机器人等研究领域之间的交叉点,并考虑不属于工程师典型培训的因素,例如哪种作物在经济上最有价值。通过对话,应用程序被选中,LLM和人类汇聚到技术设计规范,包括软件,材料部分,机构设计和制造方法。
图1 人类设计师和LLM之间讨论的图片概述,上面是人类提出的问题,下面是LLM提供的选项。绿色突出了人类的决策树,人类逐渐将问题集中在他们的目标上
在设计过程的第二个低级阶段,这些方向需要转化为物理和功能的机器人。虽然LLM目前不能生成整个CAD模型,评估代码或自动制造机器人,但最近的进展表明,人工智能算法可以支持软件的技术实现。虽然我们预计人工智能方法将来能够产生这些,但目前,技术实现仍然是人工智能模型和人类之间的协作努力。人类扮演“技术人员”的角色,优化LLM提出的代码,完成CAD并制造机器人。然后可以在真实场景中测试该机器人,并且可以根据实验证据与LLM进行进一步对话,以迭代设计。作为第二阶段的一个例子,图2 显示 LLM 生成的主要输出以及用于作物收获的 AI 设计的机器人抓手的实际部署。
图2 a.LLM产生的一些技术建议,包括形状指示,代码,组件和材料选择以及机构设计。b.在这些输入的指导下,构建了一个抓手,并在实际任务(例如番茄采摘)上进行了测试,如右图所示。
本案例研究展示了LLM改变设计过程的潜力,以及人与AI的关系可能需要如何根据个人的专业知识,设计过程的阶段和最终目标而变化。通过适当地结合人与人工智能协作的多种方法,可以增强和简化设计过程。
在人与人工智能交互的一个极端,LLM可以提供机器人设计所需的所有输入,而人类盲目地遵循这些输入。然后,人工智能是发明者,解决人类问题并提供“创造力”、技术知识和专业知识,而人类则处理技术实施。这可以通过使非专业人员实现机器人系统来促进知识的转移和民主化。在计算设计框架中,人工智能代理首次不仅解决人类指定的技术问题,而且向人类提出概念选项。从这个意义上说,LLM充当研究人员,利用知识并找到跨学科的联系,而人类充当经理,为设计提供方向。
一种更温和但更强大的方法是法学硕士与人类之间的合作探索,通过利用法学硕士提供跨学科、广泛知识的能力来增强人类的专业知识。在第二种模式中,LLM的作用是支持人类有效地从个人经验之外的领域收集知识,丰富概念过程。对于像机器人这样的固有跨学科研究领域,这具有巨大的潜力。通过增加人类知识,这种方法消除了人类教育的限制,并支持人类找到领域之间的相关联系,使跨学科研究更容易获得。但是,LLM提供的知识范围可能很窄,并且容易出错。对于远离工程师专业知识的领域,他们可能无法对人工智能生成的答案的有效性进行事实核查。这种风险如图3所示。通过仅提供对庞大而复杂主题的一小部分见解或窗口,与LLM的互动可能导致误解和过度简化,最终在设计中产生错误和该领域的偏见。
图3 左边是设计过程的两个阶段:首先是人类和LLM讨论具体的应用和设计,然后是人类实现它们。右图,是高层讨论期间知识的图解。借助LLM,人类设计师可以有效地访问其个人专业知识之外的知识领域,并通过问题链接这些领域的不同领域。然而,这是以接受错误输入的风险为代价的,这些输入与设计师的知识相去甚远。而在传统的学习过程中,设计师径向扩展他们的个人经验,而通过基于LLM的探索,设计师只能访问有限的知识领域,从而冒着误解的风险。
最后,我们可以考虑第三种方法,其中LLM帮助完善设计过程并提供技术输入,而人类仍然是参与该过程的发明者或科学家。人工智能可以帮助调试、故障排除和方法选择,加速繁琐和耗时的过程。在这种人工智能与人类的关系中,人类的知识和直觉调节了讨论,人类在他们的专业范围内工作,以便对答案和建议持批评态度。
机器人设计是一个创造性、跨学科和知识产权(IP)创造的过程,目前依赖于高技能的专业人员。我们认为,仔细结合这些方法可以彻底改变这一进程。然而,将LLM引入机器人设计引入了有关潜在负面影响的问题。LLM必须被视为搜索引擎的演变,为给定的提示生成“最可能”的答案。这些答案可能是不正确的,如果没有经过适当的事实检查或验证,LLM输出可能会产生误导,或者在最坏的情况下,可能是危险的。然而,与搜索引擎不同,LLM可以提出整合“知识”并将其应用于看不见的问题的方法,从而可能给人一种错误印象,即正在产生新知识。这可能会阻止人类对开发的解决方案负责。这可能会禁止和停滞新机器人技术和设计的进步。在机器人设计中广泛使用LLM的另一个问题是模型在统计上偏爱的解决方案,这可能会阻碍对新技术解决方案的探索。
最后,还有与抄袭、可追溯性和知识产权有关的关键问题。通过LLM创建的设计是否可以被认为是新颖的,因为它仅基于先验知识,以及如何参考这些先前的知识?随着这项技术的成熟,还有更长期的考虑因素,包括数据隐私、再培训的频率以及如何整合新知识以保持该工具的可用性和相关性。机器人设计中的人与人工智能交互也会产生重大的社会和伦理影响。如果LLM用于自动化高级认知设计任务,那么人类可能会承担更多的技术工作。这可以重新定义工程师所需的技能及其在经济和社会中的作用。
总而言之,机器人社区必须确定如何利用这些强大的工具,以合乎道德、可持续和社会赋权的方式加速机器人的发展。我们必须开发承认使用LLM的方法以及能够追溯LLM辅助设计的谱系。
展望未来,我们坚信LLM将开辟许多令人兴奋的可能性,如果管理得当,它们将成为一股向善的力量。通过结合协作LLM来提出和回答问题,设计过程可以完全自动化,其中一个有助于完善另一个。这种方法还可以通过自动化制造来增强,以允许完全自主的管道来创建定制和优化的机器人系统。最终,该领域的未来存在一个悬而未决的问题,即如何利用这些工具来帮助机器人开发人员,同时又不限制机器人应对二十一世纪挑战所需的创造力、创新和科学努力。
本文由CAAI认知系统与信息处理专委会供稿
相关文章
猜你喜欢