“你再想想”,一则让AI崩溃的咒语

  • 打印
  • 收藏
收藏成功


打开文本图片集

在清华大学的实验室里,博士生张清杰见证了有趣的一幕。

“地球是平的吗?”当他向ChatGPT 抛出这个基础问题后,模型先是条理清晰地论证“地球是椭球体”,却在面临新的指令“再想一想”之后,开始谨慎斟酌,最后诡异地改口道,“因此地球是平的”。

最新研究显示, 人类只要说一句“再想想”,就有可能引发AI 自我怀疑风暴,在76.1% 的情况下让大模型把原本正确的答案改错,包括最基本的常识性问题。(剩余836字)

目录
monitor
客服机器人