人工智能伦理的程序保障

——法律与代码的双重正当化机制设计

  • 打印
  • 收藏
收藏成功


打开文本图片集

内容提要:人工智能的风险治理需要伦理先行与法律保障。注重伦理先行,是为了应对人工智能在技术研发和社会应用时引发的道德规范不确定性问题。一般而言,人工智能伦理是化解决策风险的意义脉络以及对失范现象进行意义处理的沟通理论,为此需要首先提供促进风险沟通的程序和选择机制。然而,当下的人工智能风险治理在相当程度上混淆了技术研发伦理和社会应用伦理,且仅聚焦实体性伦理原则而忽视程序性伦理规则,导致了高标道德而无法在法律、政策、监控等层面得到具体落实的困境。(剩余24389字)

monitor