着力构建可解释性模型

——“解读人工智能前沿技术趋势”

  • 打印
  • 收藏
收藏成功


打开文本图片集

当人工智能(AI)机器人为你诊断疾病,你是否信任它的判断?当用AI模型来预测蛋白质的复杂结构,你能否理解其预测逻辑?如今,AI已经融入生活的方方面面,一个问题显得愈发关键:如何让人们理解并信任AI输出的结果。

构建可解释性模型是解决这一难题的重要途径。正如中国科学院院士张钹所言,如果不能建立可解释的AI理论,就会无法解决人们对AI技术的困惑和误解,这也将限制AI技术的发展。(剩余2225字)

目录
monitor