新方法避免大语言模型“胡言乱语”

  • 打印
  • 收藏
收藏成功

目前,大语言模型逐渐成为文学、法律、医学、自然科学研究等领域中不可或缺的工具。然而,在应用过程中,大语言模型常会出现 “幻觉”现象——可能生成看似合理但实际并不准确或不真实的信息。

英国牛津大学研究团队近日在国际学术期刊《自然》上发表论文,尝试解决大语言模型输出中的这种“幻觉”现象,从而提高输出的可信性。(剩余634字)

目录
monitor