人工智能规制的四种路径——AI定义的冲突图谱

作者

  • 比勒尔·本布齐德 作者
  • 亚尼克·莫勒瑟尔 作者
  • 娜塔丽·斯穆哈 作者

DOI:

https://doi.org/10.1234/cf8h5687

关键词:

规制, 人工智能, AI安全性, 价值校准, 鲁棒性, 公平性, 机器学习, 可解释性, AI法案

摘要

通过考察围绕人工智能规制问题的争论,我们发现,关于该运用哪些方法使人工智能受到社会控制,无论是在技术、伦理、法律层面,还是在政治层面,方案之争的背后其实是定义之争。本文以人工智能的定义为分析线索,旨在促进对规制方案的理解。我们基于规制发生的场合、牵涉其中的行动者以及所采取的方法等三个要素,绘制了一个图谱,以揭示围绕控制人工智能的争论如何构建出四条不同的规制路径:第一,超人类主义者对超级智能的危险性的警惕,以及关于如何让其符合人类价值观的思考;第二,人工智能研究人员如何在发展机器技术验证科学的过程中实现自我责任化:第三,对人工智能系统损害基本权利的谴责与对权力再平衡的控制;第四,欧洲立法者通过控制人工智能产品和服务的安全性所进行的市场管控。

学科分类号

F124;F49

已发布

2023-05-10

期号

栏目

译文