⼈⼯智能⼤模型可能会⾃我纠正偏⻅前提是主动要求它们

  • 打印
  • 收藏
收藏成功


打开文本图片集

众所周知,大型语言模型产生的内容时常会包含偏见,这主要是因为其训练时使用了大量的有害的、有偏见的、人类产生的数据。

但如果这些模型足够大,那么在人类有意帮助训练它们的情况下,它们可能能够自我纠正这些偏见。有意思的是,我们所要做的仅仅是提出要求。

这是Anthropic人工智能实验室的最新发现,发表于一篇未经同行评议的论文中。(剩余1274字)

monitor
客服机器人