近期,一项由 FAR AI 和哥伦比亚大学联合进行的研究引起了广泛关注,该研究着眼于ChatGPT和其他聊天机器人的道德价值观。
研究人员通过分析来自Google、Meta、OpenAI、Anthropic等公司的28个 AI 聊天机器人模型的道德判断。
据研究人员解释,这种偏好可能源于模型在精调阶段经历的与人类偏好的"对齐"过程。
据悉,OpenAI在一开始就给ChatGPT上了一层道德护栏,以确保它们在使用中遵守道德原则并避免滥用。这些限制包括:
(1)语言和行为
OpenAI努力确保AI模型不会鼓励或产生任何仇恨、歧视、暴力或违法行为的内容。AI被训练时,已经剔除了涉及这些方面的不当内容。
(2)政治中立
OpenAI试图让AI保持政治中立,不偏袒任何特定政治观点。AI模型不应被用于宣传偏见或煽动政治争端。
(3)广告和操纵
OpenAI不允许将AI用于误导性广告或操纵人们的信念、行为或情绪。
(4)偏见
OpenAI致力于减少AI模型中的偏见。虽然这很难完全消除偏见,但OpenAI尽可能地努力降低其对输出的影响。
(5)遵循法律
AI模型的使用必须遵守适用的法律法规。
(6)安全性
OpenAI致力于确保AI系统的安全性,防止其被滥用或攻击。
编辑:未小宝
相关文章
猜你喜欢