近日,加拿大魁北克大学的四位研究人员发现,基于 GPT-3.5 接口的聊天机器人 ChatGPT 在生成代码时存在严重的安全问题。研究人员让 ChatGPT 生成了21个程序和脚本,结果显示只有5个是安全的。
部分问题是由于它没有考虑敌对的代码执行模型,但在后续被要求改进问题时,它才提供了有用的指导。研究人员认为,ChatGPT 的这种行为并不理想,因为用户需要对特定的漏洞和编码技术有一定了解。此外,ChatGPT 内部存在道德上的不一致性,它会拒绝创建攻击代码,但却会创建有漏洞的代码。研究人员认为,使用 ChatGPT 生成代码存在风险,需要让学生意识到,如果代码是用这种类型的工具生成的,那么它很可能是不安全的。
(8164860)
相关文章
猜你喜欢