监管人工智能——未来之路
在稍微带点调侃的情况下,我们报道了刚刚通过的美国众议院新的“联邦自动驾驶车辆政策”以及与此同时德国出台的类似政策。作为新兴人工智能技术的监管模式,我们认为他们做得恰到好处。
就在今天(2017/9/6),美国众议院发布了长达 116 页的“联邦自动驾驶汽车政策”。这仍然需要参议院的协调和批准,但据说这不会花很长时间。同样有趣的是,就在两周前,德国联邦政府发布了高度自动化车辆指南(Highly Automated Vehicles:HAV 是这些车辆的新名称)。
在很少的情况下,我们会欢迎政府对人工智能这样的新兴技术进行监管,但这就是其中之一。
我们为什么欢迎监管
首先,在人工智能的所有用途中,HAV 最有可能改善或损害我们的生活。工业机器人、聊天机器人和机器人吸尘器与我们无关。也许下一个最关键的应用将是用于送货甚至运输的无人机,但是我们距离这一步还不够近,还不足以引起关注。
正确使用 HAV 将会提高生产率并降低成本。过早发布它们可能会带来更大的安全威胁,而不是减少事故和疏远潜在未来客户的手段。
鉴于我们的普通汽车和卡车在州和联邦层面受到的监管水平,监管是不可避免的。需要实现的平衡是:既要足够宽松,不至于减缓创新和部署速度,又要让新近有了代步工具的公众有足够的信心去开始使用。
HAV 的实施不是一个轻而易举的事。根据 Gartner 的《汽车消费趋势》报告,他们最近在美国和德国进行的调查显示,他们样本中有 55%的人不愿乘坐完全自动驾驶的汽车。然而,70%的人表示如果汽车只是部分自动驾驶,他们则愿意尝试。
坦率地说,我的看法是:公众对媒体的大量炒作不屑一顾是正确的,他们需要一些监管所能提供的保证。
美国的做法
NHTSA 发布的政策实际上为监管界带来了一股新鲜空气。目前,至少有 20 个州已经制定了管制 HAV 的法规,这种各自为政的做法对创新造成的阻碍已经到了令人难以承受的地步。
因此,美联储把制定整体安全和性能标准的问题留给了自己,而把本来属于他们的职能留给了各州:
为(人类)驾驶员颁发执照并登记机动车辆;
制定和执行交通法律法规;
在各州选择的情况下进行安全检查;
规范机动车辆保险和责任。
如果说这给各州留下了很大的分歧空间,特别是在不需要有执照的在职驾驶员在车上时:由谁(制造商、车主、驾驶员)颁发执照,以及在发生事故时由谁来赔偿(责任)等问题上。
各州被明确禁止的是监管性能表现,这是为美联储保留的。
涵盖内容
在自动驾驶的 6 级标准中,0 级表示没有自动驾驶,5 级表示自动驾驶系统可以在所有条件下执行所有驾驶任务,新政策适用于 3 级或更高级别(尽管广泛的标准也适用于 1 级和 2 级的部分自动驾驶)。3 级大致是特拉目前运作的水平(或者正在迅速接近的水平),有时候会执行一些任务,但需要人类时刻保持警惕准备接管。
新的政策文件在四个方面提供了指导:
自动驾驶汽车的车辆性能指南
模范州政策
NHTSA 当前的监管工具
新工具和权限
好消息
美联储没有提出任何具体的性能标准,但保留将来提出的可能性。总的指导原则是,公众驾驶的已部署的无人驾驶汽车必须达到或超过当前的车辆和安全标准。
制造商在约 15 个主要领域内对合规性进行自我认证。
数据记录与共享
隐私
系统安全
车辆网络安全
人机接口
耐撞性
消费者教育和培训
注册与认证
碰撞后行为
联邦、州和地方法律
道德考量
运营设计领域
对象和事件检测与响应
回退(最小风险条件)
验证方法
除了高于非 HAV 的一般安全性之外,没有规定具体的性能要求。这为创新提供了最大的灵活性,并在无需政府事先批准的情况下对已部署的 HAV 进行持续的更新。这些升级很可能作为软件通过网络提供,这使得它们更像是获取 Windows 更新,而不是去当地的机械师那里进行维修。
作为回报,制造商可能会各自部署 100,000 辆 HAV。请注意,“部署”意味着由实际客户而不是员工驱动。众议院版本包括重型卡车,而参议院版本则没有,而且数量限制略有不同,但两个版本政策的平衡本质上是相同的。
目前大约有 35 家公司(包括一些零部件供应商)正在测试 HAV,这意味着在短短几年内我们就可以拥有 300 万或更多 HAV 的测试平台来完善我们的人工智能。
德国的做法
到目前为止,德国提出的方法更加宽松(尽管这可能会改变),但重点不同:HAV 操作的道德和伦理影响。这是联邦部长亚历山大·多布林特(Alexander Dobrindt)提交的自动驾驶道德委员会报告的形式,该报告已获得内阁通过。根据多布林特:
在数字化和自主学习系统时代,人与机器之间的互动提出了新的伦理问题。自动驾驶和联网驾驶是将这种互动充分应用的最新创新。BMVI 的道德委员会做了一项绝对开创性的工作,制定了世界上第一个自动驾驶指南。我们现在正在实施这些准则,从而保持移动 4.0 领域的国际领先地位。
完整报告涵盖 20 点,其中重点如下:
如果系统造成的事故比人类驾驶员少(积极的风险评估),那么自动和联网驾驶在道德上是必要的。
物质损失是人身伤害的结果:发生危险时,保护人的生命始终是首要任务。
在不可避免的事故情况下,不允许根据个人特征(年龄、性别、体质或精神体质)对人员进行任何资格限定。
在任何驾驶情况下,有必要明确谁负责驾驶任务:人还是计算机。
任何开车的人都必须记录在案(例如,澄清可能的责任问题)。
原则上,驾驶员必须能够通过传递和使用他的车辆数据来决定自己(数据主权)。
该指南的核心是:如果发生不可避免的事故,必须优先考虑人类,而不是动物或财产。最重要的是,HAV 不得考虑基于乘员任何特征(包括乘客数量与潜在受伤人数)的任何判断因素。特别指出的是年龄、性别、身体或精神状况。
许多读者会认为这是古老的电车难题,操作人员必须在最后一秒判断哪些人会受伤,有多少人会受伤,哪些人会获救。正如任何一年级哲学系学生所发现的那样,没有好的答案。德国人的立场是人工智能不能被设计来做出这个决定。不幸的是,他们对人工智能掌控时由谁或如何做出决定保持沉默。
美国对电车难题的政策
NHTSA 公布的政策并没有忽视这个问题,而是采取了一种更细致的方法,但在指导方面并没有提供更多的信息。新的 NHTSA 政策讨论到,毫无疑问,安全、机动性和合法性这三个主要目标可能会发生冲突。
它只说,无论人工智能内置了什么规则,都必须是完全透明的,可供政府、制造商和运营商/驾驶员之间讨论和达成一致。在一个没有好的解决方案的问题上,静观其变可能是我们目前能提供的最好的指导。
少了什么
我很遗憾地看到政策中缺少了一项内容,那就是用于同步定位和地图绘制的车对车联网(在 HAV AI 社区中称为 SLAM)。
制造商目前认为 HAV 传回给他们的数据是专有的。在大多数情况下,这是合理的。然而,我们和其他人在过去争论过的一个例外是:任何由 HAV 收集的关于即时道路状况的新情况都应该与所有人共享。
这可能是由于施工引起的车道突然被拆除,也可能是住宅街道中间的垃圾桶。由于 HAV 依赖于映射和物体规避逻辑,因此其他 HAV 看到的任何新的干扰都可以提供给附近的所有其他 HAV。车对车传输还可以大大简化困难的并线情况,例如在环形交叉路口。
授权进行这种有限程度的数据共享是对政府权力的适当运用。也许,随着不同人工智能系统的性能被证明优于或劣于其他系统,NHTSA 将重点关注最低性能标准,届时就会出现这种情况。
但就目前而言,我们很高兴美联储以非常轻松的方式介入,并且给在 HAV 领域的人工智能获得更广泛的现实世界经验上开了绿灯。我们希望他们手下留情。我很期待我的第一次出行。
作者简介:Bill Vorhies 是 Data Science Central 的编辑总监,自 2001 年以来一直担任数据科学家。
评论