OpenAI 发布研究报告:揭示大语言模型「幻觉」现象背后的成因
OpenAI 近日发布研究报告,针对当前广受关注的「语言模型幻觉(hallucination)」问题进行深入剖析。报告指出,即便当前的语言模型能力不断增强,模型自信地生成不真实答案的「幻觉」问题依然难以彻底根除。OpenAI 的最新论文认为,这一现象源自目前主流的训练和评估方式更倾向于奖励「猜测」而非「承认未知」。
研究分析称,大语言模型的主要训练方式是序列预测(即「下一个词预测」),缺乏负面示例,因此模型更擅长生成流畅语言而非判别真假。在模型学习过程中,常见知识(如拼写)可通过归纳掌握,但不常见甚至随机性的事实(如生日)则难以通过语言规律推断,导致出现幻觉现象。
报告建议,未来的模型评估体系应对自信的错误给予更高惩罚,同时对恰当表达不确定性的模型给予部分分数。这一思路借鉴了部分教育领域的负分制和部分学术团体的前沿研究。OpenAI 强调,仅在部分评估体系中试行新办法是不够的,主流的基于准确率的评分标准应全面革新,否则模型开发者会持续优化「猜测」算法。
OpenAI 表示,其最新模型的幻觉率已显著下降,团队将持续努力,进一步降低语言模型自信输出错误信息的概率。(来源:cnBeta)