美国斯坦福大学和加州伯克利分校的研究人员,近期公布了GPT-4的研究结果。在过去几个月里,GPT-4在语言模型编码和合成任务方面,做得越来越差。但是也有专家对这个结果表示质疑,他们认为由于OpenAI没有向外界透露更多的模型信息,未来GPT更多的版本有可能会有更多的问题。
这些研究人员主要研究OpenAI的大型语言模型的表现,其中重点研究GPT-3.5和GPT-4在解决数学问题、回答敏感问题以及代码生成和视觉推理等方面的表现。但是GPT-4识别素数的能力从3月份的97.6%下降到6月份的2.4%。与此同时,GPT-3.5在识别素数的准确率方面,有所提高。
近期Meta将Llama 2开源,有专家认为依靠公众的帮助,这样人工智能可以在人类的有效监控下,避免做出危害人类的事情。 还有研究人员表示,OpenAI应该向Meta学习,开放一些人工智能模型的底层架构,主要用于审计的问题。
这个研究结果对OpenAI造成不小的负面影响,如何在提高模型性能和降低用户疑虑方面,还需要继续做努力。
相关文章
猜你喜欢