第8章 你不开车,车可不会自己走
这种不合理有效的数据驱动方法颇适合用于电子搜索、简单翻译和简易导航。只要有足够的训练数据,算法确实可以在各种烦琐乏味的任务中表现得相当不错,而人类的聪明才智通常会填补其中的空白。目前,大多数人在使用搜索框时,已经学会了使用越来越复杂或特定的搜索词(至少也会使用同义词)去找到我们想查看的网页。语言之间的机器翻译比以往任何时候都好。但它仍然无法与人工翻译相媲美,人类的大脑在理解断句的含义方面非常出色。对于上网随便看看的人来说,网页上那些生硬、笨拙的翻译通常就够用了。GPS系统能提供从A点到B点的路线,非常方便。如果你询问专业的出租车或网约车司机,他们会告诉你,GPS系统给你的未必是去机场的最佳路线,但它肯定能把你带到目的地,而且大多情况下,系统能准确显示出高峰路段上的交通情况。
然而,这种不合理有效的数据驱动方法存在很多问题,对于将其用于诸如驾驶这种威胁生命的场景,我仍持怀疑态度。无人驾驶这一使用场景,用来思考人工智能的完美运行和完全失效这两种情况是最合适的。
我第一次乘坐无人驾驶汽车是在2007年。当时的经历很糟糕,我以为我会死掉,或者当场呕吐,或者呕吐并当场死掉。因此,2016年,当我听说特斯拉有了Autopilot软件、优步在匹兹堡测试无人驾驶汽车,无人驾驶汽车将要进入市场时,我就在想:他们做了什么改变?我在2007年遇到的那些鲁莽的工程师,真的将一个道德决策实体嵌入了一台两吨重的杀人机器中吗?
结果是我想多了,似乎并没有发生多大变化。他们争先制造自动驾驶汽车,本质上就是在争先突破计算的基本极限。在自动驾驶汽车发展的前10年,试探什么能奏效、什么不能奏效是一个警世故事。这个故事告诉我们,技术沙文主义可能让人们对技术产生神奇的创想,也有可能对公共健康造成危害。
我第一次乘坐无人驾驶汽车,是在一个自动驾驶汽车的试车道上:费城南部波音工厂周末空无一人的停车场。本·富兰克林赛车队的成员都是宾夕法尼亚大学工程专业的学生,他们当时正在为一场比赛而打造一辆自动驾驶汽车。当时我正在为宾夕法尼亚大学的校友杂志撰写一篇关于他们的文章。一个星期天的清晨,我在校园里与车队队员会合,然后跟在他们的车后面上了高速公路。他们要去练车,之后参加一个无人驾驶汽车比赛。
只有在路上几乎没有其他车辆或行人的时间,他们才能上路练车。他们的车是一辆改装过的丰田普锐斯。严格来说,这辆车上路是不合法的。汽车里必须有什么零件是有法律规定的,比如方向盘之类。他们在停车场或者宾夕法尼亚州的屋院内练车是合法的,但要从费城西部的车库出发,沿着I——95公路开车到费城南部的练车场,就有风险了。星期日早晨,他们应该不太可能被警察截停,因为那个时段的高速公路上没有那么多巡警。大学的律师们正在争取州立法,让汽车能够合法自动驾驶。但在那之前,车队只能抱着最乐观的心态,进行错峰练车。
到了停车场,我在他们的车后面慢慢停下车。他们给这辆普锐斯起了个名字,叫“小本”,上面坐满了工程师:驾驶座上的机械工程专业的学生塔利·富特,后座上的电气和系统工程博士生保罗·贝尔纳萨和电气工程博士生亚历克斯·斯图尔特,还有副驾驶座上穿着亮黄色和黑色相间的队服的洛克希德·马丁公司员工、德雷克塞尔大学计算机科学专业应届毕业生海第·乔克西。车缓缓停下来,富特下了车,打开后车厢的门,露出一堆盘在后座和车顶上的电线。这辆车看起来就像一部世界末日电影中的道具,传感器和各种零件固定在车顶上。这帮学生在原本覆盖住仪表板的塑料控制台上撕开了一个洞。一堆缠结的电线散开来,连接着一台看起来非常严肃的大型笔记本电脑。后备厢的地板上有一半被树脂玻璃板覆盖,车轮拱板的位置可以看到更多的电线和箱子。富特在安装在车上的LCD屏幕上弹出一个命令提示符,画面上很快就出现了这个停车场的卫星图像。三位乘客仍在车内,系着安全带,弯着腰在笔记本电脑前工作。练车开始了。
在2007年的大挑战赛中,“小本”需要自动驾驶通过一个用退役的军事基地搭出来的“空城”。不能用遥控器,不能预先给汽车编程设好路线,89辆自动驾驶汽车必须自行沿着街道行驶,穿行十字路口和拐角。该项目的赞助商美国国防高等研究计划署(DARPA)承诺,最快完成比赛的车队可以获得200万美元奖金,亚军和季军可以分别获得100万美元和50万美元奖金。
早在2007年,已经有机器人汽车技术在辅助日常驾驶。当时,雷克萨斯已发布过一款能在特定条件下自动平行停车的汽车。“今天,所有的高端汽车都有诸如自适应巡航控制或者停车辅助系统之类的功能。汽车越来越自动化。”工程副教授兼车队顾问丹·李解释道,“现在,汽车要完全自动驾驶,对周边环境必须是全知状态。这些都是机器人技术的难题:计算机要有视觉,要让计算机能‘听到’声音,还要让计算机理解周围所发生的一切。这里的环境正适合测试这些功能。”
为了让“小本”“看到”并绕开障碍物,自动驾驶功能和GPS导航系统必须正常运行,车顶行李架上的激光传感器必须能观察到物体。然后,“小本”要能够将物体识别为障碍物,并且在障碍物周围开辟出一条新路径。那天的练习目标之一就是要测试那些最终能让“小本”避开其他车辆的子程序。
“这个系统非常复杂,有很多不可预见的后果。”富特说,“如果有任何一个地方运行缓慢,其他地方也会崩溃。在软件开发中,一般标准是要花四分之三的时间进行调试。但是在这样一个项目中,我们大概得花九成时间做调试。”
2007年的挑战赛要比之前的更加复杂。在2005年的挑战赛中,参赛者的任务是制造一个机器人,让它在没有人为干预的情况下,在10小时内穿越175英里沙漠。2005年10月9日,斯坦福赛车队和他们的汽车“斯坦利”(Stanley)赢得了比赛(并赢取了200万美元奖金),他们的成绩是让斯坦利在莫哈韦沙漠中行驶了132英里。斯坦利以平均时速19英里完成了比赛,用时6小时54分钟。在沙漠中,“无论障碍物是石头还是灌木丛,对车子来说都是一样的,都得绕过它”。时任斯坦福大学计算机科学与电气工程副教授塞巴斯蒂安·特龙说道。[1]然而,在城市挑战赛中,汽车必须判断路况决定如何通行,并且遵守传统道路行驶规则。“挑战不仅在于感知环境,而且在于了解环境。”特龙说。斯坦福车队参加2007年挑战赛的新车“少年”(Junior)是一辆2006年的大众帕萨特,它被认为是“小本”的主要竞争对手。卡内基梅隆大学车队开发的一辆2007年款雪佛兰太浩“老板”(Boss)同样不容小觑。2005年,卡内基梅隆大学车队派出了两辆汽车参加挑战赛——“沙尘暴”(Sandstorm)和“高地人”(H1ghlander),并分别获得亚军和季军。卡内基梅隆大学和斯坦福大学之间关于机器人的较量,就好比北卡罗来纳大学和杜克大学的篮球之争。2003年,斯坦福大学挖走了塞巴斯蒂安·特龙,他曾是卡内基梅隆大学的机器人学明星教授。
说回我们到波音工厂停车场练车那一天。电气工程专业的大四学生亚历克斯·库什列耶夫驾驶着自己的新车——一辆日产阿蒂玛新车,来到这里。他方才出去买了一个用于控制玩具车的遥控器。这个遥控器将用于紧急停止。每一辆自动驾驶汽车似乎都有一个巨大的卡通般的红色按钮。还有两个附加的按钮用胶带贴在汽车的后侧面板上,连接在几台Mac Mini服务器的架子上。这些服务器构成了汽车的电子“大脑”。至此,车队已经在这个项目上花费了宾夕法尼亚大学通用机器人、自动化、传感和感知实验室(General Robotics, Automation, Sensing and Perception Laboratory,简称GRASP实验室)赞助的大约10万美元。新泽西州切里希尔的洛克希德·马丁公司的先进技术实验室(Advanced Technology Laboratories,简称ALT实验室)以及位于马里兰州的泰雷兹公司(Thales Communications)也为这个车队提供了赞助。
“这辆普锐斯小车给了我们更多机动性。而且因为它是一辆混合动力汽车,有一块巨大的车载电池。除了这辆汽车以外,还有很多部电脑、传感器和发动机在运转,所以我们需要额外的电源。”丹·李说。一台电动机控制“小本”的油门、刹车和方向盘;从转向灯到雨刷的所有功能,都可以通过安装在变速杆上方面板上的按钮来控制,就像为双手驾驶汽车的残障驾驶员所做的定制功能。这辆车可以以普通方式驱动,也可以用手控制。他们声称,启动自动驾驶仪之后,这辆车就完全不需要驾驶员了。
我看着那辆车在停车场上快速地来回往返。一名安全驾驶员坐在副驾驶座上,一只手放在紧急停止按钮上。看着一辆驾驶位空无一人的汽车在方向盘的控制下走走停停,这个场面很令人不安,但又特别令人兴奋。
电池低声嗡嗡作响了一阵后,库什列耶夫控制着方向盘,以15英里的时速穿过停车场。当天的目标是让“小本”在停车场实地练习绕过障碍物行驶。在比赛中,“小本”必须应付的是各种路口和路障。它必须在最高时速为30英里的情况下,对路上可能出现的停车标志、其他车辆和流浪狗做出反应。
终于,到我上场了。我坐在驾驶座上,毕竟让它空着还是挺奇怪的。库什列耶夫启动了自动驾驶,汽车向前推进了几英尺——然后突然急剧向左拐、向右拐,完全失控了。斯图尔特在后座喊道:“控制住!”汽车向一个路灯行驶过去。它一路逼近路灯底座边上的水泥墙,开始加速。马上要撞墙了!我把脚塞到刹车的位置,却发现刹车踏板已经被拆下。我恐慌极了,大喊:“它不是应该减速吗?”我确信接下来车子要撞墙了,吓得闭上眼睛,准备尖叫。
这时,我听到后座传来杂音和激烈的打字声。库什列耶夫大力操作,切换到手动控制,并且刹住了车。汽车猛地停在了距离水泥墙仅几英寸的地方。我感觉我的胃被甩到了四尺开外。
我转身瞪着那个在鼓捣笔记本电脑的家伙。“程序肯定有漏洞,”他耸耸肩说,“难免的。”
“我们刚才跟死亡之间只隔着一个GPS参数的距离。”斯图尔特兴高采烈地低声说。工程师们就汽车突然转向的问题进行了辩论:汽车本该转一个平滑顺畅的小弯,却发生了很大的摆动。当时激光传感器在扫描汽车前方的区域,但软件没有将路灯杆视作障碍物。这个问题似乎影响了转向,导致本应平滑转弯的汽车突然猛地摆动起来。
富特和斯图尔特商量起来。他俩是机器人汽车领域的老手了,在加州理工学院读本科的时候就参与过两次机器人汽车大挑战赛的项目。他们上一辆自动驾驶汽车叫“艾丽斯”(Alice),是一辆为2005年挑战赛改装的福特E350厢式车。艾丽斯在沙漠车赛中行驶了大约7英里之后,向一个隔开媒体帐篷和赛道的屏障冲过去,并且碾过了它。艾丽斯还没来得及上头条新闻,就被评委们禁赛了。
“小本”的方向盘自己动了几下,斯图尔特和韦尔纳扎在后座上控制着它。代码问题解决了,库什列耶夫再次开车在停车场穿行了一遍,然后启动自动驾驶。转向又出了问题,汽车驶向停车场角落里的巨大扫雪机,引擎发出刺耳的声音。
“去它的,真扫兴。”斯图尔特说。
“会不会是Sheep出了问题?”韦尔纳扎说。Sheep是控制汽车的程序之一。斯图尔特说:“哦不,我可不想今天就碰上这么大的问题!”
我当时想(但没有写下来),那段经历并未激发起我对那一门技术的信心。坐他们那辆小车感觉太危险了,就像坐在一辆普通的汽车里,但司机是个醉酒的小孩。如果这些人要做出自动驾驶汽车技术,那么他们对我生命的罔顾态度,可不是什么好兆头。我不能放心让我的孩子去信任这些孩子制造的机器。一想到这辆车可能会和坐满弱势孩童的校车行驶在同一条路上,我就忧心忡忡。当时我写了一篇报道,后来我想当然地认为这项技术会以失败告终或被吸收到另一个项目并且逐渐消亡,就像RealPlayer播放器、Macromedia Director软件和Jaz驱动器那样。发表了那篇报道之后,我就把宾夕法尼亚大学的机器人汽车抛诸脑后了。
与此同时,“小本”还有一场比赛得去跑。2007年11月3日,DARPA大挑战赛当天早晨,车辆在起跑线排队就位。他们的目标是穿越位于内华达州的一个退役军事基地——乔治空军基地的街道。那里有道路、交通标志和护卫车辆。起跑线上什么车都有。比赛任务是在基地里穿行60英里,要求遵从交通标志的指示并且避开其他车辆。
杆位在前一周的预选资格赛已经定好了。卡内基梅隆的汽车“老板”是头号种子选手,这意味着它可以率先进入赛道,随后其他机器人汽车和一些由人类驾驶的护卫车辆会定时出发进入赛道。“老板”的车队已经在起跑线准备好了——但“老板”没准备好。它的GPS出故障了,紧接着引起一连串问题。正当卡内基梅隆车队的成员蜂拥而上时,其他车辆纷纷进入赛道。最终,他们找到了问题所在——起跑坡道旁边巨屏电视显示屏的射频干扰。那个巨屏干扰了“老板”的GPS信号。有人关掉了显示屏。
在斯坦福的汽车出发20分钟后,“老板”第十个出发。这个比赛比拼的不是速度:在这条55英里的赛道上,“老板”的平均时速大约是14英里。“‘老板’这辆车,我能看到的各方面都很棒。”车队技术总监克里斯·厄姆森说道,“它跑起来很流畅,速度也很快。它能与其他车很好地互动,按预期完成了它应该做的事。”
“老板”最早到了终点。斯坦福的车第二,比“老板”落后大约20分钟。“小本”跑完了比赛,但达不到能获得奖金的名次。来自康奈尔大学和麻省理工学院的车队也跑完了比赛,但不在比赛规定的6小时时限内。很明显,匹兹堡和帕洛阿尔托是机器人汽车技术的主导力量。
宾夕法尼亚大学车队使用的方法跟斯坦福大学和卡内基梅隆大学车队大相径庭。“小本”的驾驶原理是基于知识的。它的车队试图让这辆车基于知识库和一套预编程好的“经验”来判断在路上应该做什么。这种基于知识的方法是人工智能思考方式的两大主要方面之一。本·富兰克林车队使用的是广义人工智能解决方案。这个方案的效果不怎么好。
“小本”试着像人类一样去“看”路上的障碍物。安在“小本”车顶上的激光雷达会识别路上的物体,然后,“大脑”软件将根据物体的形状、颜色和大小等标准来识别它。它会通过一个决策树来决定该做什么:如果它识别到的是一个像人或狗一样的活物,那车子就放慢速度;如果它识别到的是一个像鸟一样的活物,那它可能会自己离开,所以车子不需要放慢速度。这要求“小本”拥有现实世界物体的大量信息。打个比方,就说锥形交通路标吧。我们都知道,锥形交通路标直立时是一个方形底座加三角锥形,它的高度通常在12英寸到3.5英尺。我们可以编写这样一条规则:
identify object:
IF o bject.color=orange AND object.shape=triangular_
with_square_base
THEN object=traffic_cone;
IF object.identifier=traffic_cone
THEN intitiate_avoid_sequence
如果锥形交通路标倒下了呢?我住在曼哈顿,在那里常常能看到倒下的锥形交通路标。有一次,我见到许多倒地的锥形交通路标把街道堵得水泄不通。当时很多人都下了车,将锥形交通路标移到一边,这样他们才能继续开车。我还见过一些锥形交通路标在路中间被压扁了的样子。因此,这条关于锥形交通路标的规则必须调整一下。我们试试这样写:
identify object:
IF object.color=orange AND object.shape is like
triangular_with_square_base.rotated_in_3D
THEN object=traffic_cone;
IF object.identifier=traffic_cone
THEN intitiate_avoid_sequence
在这里,我们遇到了人类思考和计算之间的差异。人脑可以旋转空间中的物体。当我说“锥形交通路标”时,你应该能够在脑子里把它想象出来。如果我说“想象锥形交通路标被撞倒在地”,你也能想象它,并且可以在脑子里将它旋转。工程师们特别擅长在脑子里想象这种空间操纵。有一个流行的儿童数学能力测试,会在2D平面上显示3D形状,然后要求他们指出被旋转对象的图片。
但是,计算机没有想象力。要得到对象的旋转图像,计算机需要对这个对象进行3D渲染。它至少需要一个矢量地图。程序员必须对这个3D图像进行编程,让计算机也像人类大脑那样擅长猜测。地面上放置的这个物体,要么在它已知物体的列表上,要么不在。
我坐在车里的时候,“小本”做了两件事:一是走了一圈,二是没能避开障碍物。克服恐惧之后,我思考了“小本”没有避开障碍物的原因。它是一个柱状物。它需要一条类似这样的规则:if obstacle.exists_in_path and obstacle.type=stationary, obstacle.avoid。但这条规则不起作用,因为并非所有静止的物体都会一直保持静止。一个人可能这会儿是静止的,但过一会儿他可能会移动。所以规则也许应该改成:if obstacle.exists_in_path and obstacle.type=stationary,AND obstacle.is_not_person, avoid。但这条规则也不起作用,因为现在我们必须定义一个人和一个柱状物之间的区别。现在,问题回到了对象分类上。如果计算机可以识别出柱状物,我们可以为柱状物和人分别编写规则。但我们不知道它是柱状物,除非有视觉或是对象识别技术。正因如此,这辆车差点儿撞上巨大的水泥柱子,而我差点儿死在车里。
关键在于感知能力。我们无法对心智理论进行编程,因此汽车永远无法像人类那样对障碍物做出反应。计算机只“知道”它被告知的内容。如果没有对未来进行推理的认知能力,计算机就无法瞬间将路灯识别为障碍物,并采取适当的规避措施。
认知能力是人工智能从一开始就面临的核心挑战。就连明斯基最终都宣称这是有史以来最难解决的问题之一。也许正因如此,斯坦福大学和卡内基梅隆大学的车队没有采用这个方法。他们的汽车采用了完全不同的方法来解决让汽车行驶过障碍赛道的问题。他们采用的是纯粹的数学方法,效果出乎意料地好。我喜欢将它看作一个“卡雷尔机器人”项目。
1981年,斯坦福大学教授理查德·帕蒂斯引入了教育编程语言,被称作“卡雷尔机器人”。卡雷尔是一个盒子中网格上的一个点。这个盒子有一个或多个出口。卡雷尔可以像国际象棋的棋子“卒”一样在网格中移动。编程任务是帮助卡雷尔逃离这个盒子。仅使用一支铅笔和一张纸就可以完成这个入门级编程练习,但它却是多年来麻省理工学院、哈佛大学、斯坦福大学和其他所有科技巨头的编程课程上布置的第一项计算作业。教授会给学生这个盒子,盒子里有卡雷尔,还有各种障碍物。学生的任务是编写命令,让卡雷尔从它原来的位置出发,绕过障碍物,移动到出口。卡雷尔挺有意思。我在大一那年修读编程入门的时候知道了卡雷尔,当时我也在修读微积分课程,卡雷尔至少比微积分好玩多了。图8.1是一个卡雷尔练习的例子。这个谜题的说明是这样的:“每天早上,当卡雷尔订阅的报纸(用蜂鸣器锥块表示)被扔到房子的前门廊时,他就在床上醒过来。编写程序,让卡雷尔取回报纸并把它带回床上。报纸总是被扔在同一个位置。如图所示,这就是卡雷尔的世界,包括他的床。”[2]卡雷尔用箭头表示,“他”就在他初始位置那张虚构的床上。要让他到达蜂鸣器的位置拿到报纸,他需要往北转90度,向北走两条街,向西走两条大道,如此这般,直到他到达网格上蜂鸣器的地址。
解决卡雷尔问题的关键在于提前了解障碍物的位置,并让卡雷尔绕过它们。人类程序员可以看到网格,即卡雷尔世界的全景地图。卡雷尔的内存中也存储着这个网格,他“知道”周围的网格布局。因此,卡内基梅隆大学车队就采用了卡雷尔的方法。他们使用汽车上的激光雷达、摄像头和传感器来构建它所处空间的3D模型。在这个3D模型里,没有汽车“识别”出来的“物体”,有的只是使用机器学习识别的可导航区域和非导航区域。诸如其他汽车之类的障碍物会被渲染为3D团状物,被归为“卡雷尔的障碍物”。
卡雷尔世界的边界
图8.1 一个典型的卡雷尔练习
这个方法非常巧妙,因为它显著减少了汽车必须处理的变量的数量。“小本”必须识别所有在它“视野”中的变量——道路、鸟类、行人、建筑物、锥形交通路标等等,并且预测每一个变量的未来位置。它必须为每个假设运行一个微分方程。“老板”和“少年”不需要这样做,它们预装了比赛场地的三维地图和行车路线,使用机器学习来识别三维地图中可导航的区域。“少年”和“老板”的方法是狭义人工智能解决方案,依赖于更好的地图绘制技术。
汽车行驶并且绘制出所处环境的地图。它会绘制出网格,就像卡雷尔世界的网格。然后,汽车只需要考虑地图上的异常情况。假如锥形交通路标不在原始地图里,就必须将它识别出来进行处理。假如它就在原始地图里,那么它就是一个静止的物体,并且已经预先做了计算。这样一来,处理器就不必在汽车行驶途中再对它做图像识别了。
卡内基梅隆车队比其他竞争对手更具优势。他们已经研究汽车计算机控制系统多年。他们在1989年就曾推出一款自动驾驶货车——“阿尔文”(ALVINN)。[3]他们在开发期间交上了天大的好运。碰巧,谷歌的创始人拉里·佩奇对数字化地图绘测非常感兴趣。他将一堆相机连接到一辆厢式货车外面,在山景城周围转了一圈,沿途拍摄风景,并且将这些图像转换成地图。随后,谷歌将厢式货车项目变成了庞大的街景制图项目。佩奇的远见恰好与前面提到的卡内基梅隆大学教授塞巴斯蒂安·特龙开发的技术不谋而合。特龙教授与他们学校参加DARPA挑战赛的车队来往甚密。他和他的学生开发了一个程序,能将街道照片拼接成地图。后来,特龙从卡内基梅隆大学转到了斯坦福大学。谷歌收购了他的技术,并将其应用到谷歌街景项目。
此时也是硬件发展的重要节点。视频和3D文件占用了大量内存空间。摩尔定律表示,集成电路上容纳的晶体管数量每年会翻倍,容量的增加意味着计算机内存价格日益下降。2005年左右,存储器突然间变得又大又便宜,以至于首次可以绘制出整个山景城的3D地图,并将其存储在车载存储器中。平价的存储器改变了游戏规则。
特龙和其他成功的自动驾驶汽车技术工程师发现,要复制人类的感知和决策过程是非常复杂的,而且使用现有技术是不可能做到的。于是,他们决定不这样干。通常,人们在谈论这种创新时,总会提到莱特兄弟。在莱特兄弟之前,人们认为飞行机器必须模仿鸟类飞行的动作。莱特兄弟却意识到,他们可以制造一台不需要拍打翅膀的飞行机器——用翅膀滑翔就足够了。
这些研究自动驾驶的程序员意识到,他们可以制造一辆没有感知能力的汽车——能在网格中移动就足够了。他们的最终设计基本上就是一辆极其复杂的遥控车。它不需要有意识,也不需要知道驾驶规则。它采用的是统计估计值和数据的不合理有效性。这可以说是一种无比复杂的作弊方式,非常酷,而且在很多情况下都很有效——但它仍然是作弊。它让我想起使用作弊技巧来赢得电子游戏。他们没有制造一辆像人类那样可以穿行世界的汽车,而是将现实世界变成了电子游戏,让汽车在其中穿行。
统计方法将一切都变成数字,并估计出概率。现实世界中的物体不是被转换成物体对象,而是被转换成在网格上以计算出的速度沿特定方向移动的几何形状。计算机会估算出它将在轨迹上继续移动的概率,以及这个对象跟汽车相交的时间。如果它和汽车的轨迹相交,汽车就减速或者停下。这是一个优雅的解决方案。它能得到大致正确的结果,但推理的过程却是错误的。
这种解决方案与大脑的运行方式形成了鲜明的对比。《大西洋月刊》2017年的一篇文章指出:“今天,我们的大脑在任何给定时刻,都会接收超过1 100万条信息;因为我们只能有意识地处理其中大约40条信息,所以我们的无意识思维接管了剩下的信息,使用偏见、刻板印象和固定模式来过滤掉噪声。”[4]
你对汽车自动驾驶的看法取决于你对人工智能的看法。很多人像明斯基和其他科学家一样,都愿意相信计算机可以思考。“我们对这种人工智能的幻想已经持续了将近60年。”X.ai公司的创始人兼CEO丹尼斯·莫滕森在2016年4月接受Slate杂志采访时表示,“我们都认为最终的成果一定是一个像极了人类的实体,它能像你我现在这样与我们面对面聊天。这种幻想将持续下去,我这一代人,甚至我的孩子那一代人都看不到它实现的一天。”[5]
莫滕森说,可能实现的是“极其专业化、垂直化的人工智能,它可能只能理解一项工作,但能把这项工作做得非常好。”这很了不起。但是,驾驶不仅仅是一项工作,而是同时处理许多项工作。机器学习方法非常适合用来完成固定符号世界里的重复性工作。但它并不适合在街道上操作一台两吨重的杀人机器,因为街道上到处都是无法预测的民众。
自2007年大挑战赛以来,DARPA已经不再重点关注自动驾驶汽车了。他们目前的拨款优先级名单上甚至不包括自动驾驶汽车项目。“从定义上说,生命是不可预测的。程序员要预见到可能发生的每一个问题或意外情况是不可能的,这就意味着现有的机器学习系统在面对现实世界的不规则性和不可预测性时,很容易发生故障。”DARPA终身学习机器项目的项目经理哈瓦·西格尔曼在2017年这样说道,“今天,如果你想提高机器学习系统的能力,让它能够应对新的场景类型,你必须停掉整个系统,使用与新场景相关的额外数据集来重新训练它。这种方法的问题就是不具备可扩展性。”[6]
然而,自动驾驶的梦想在商业领域仍然活跃。今天,自动驾驶汽车的规则留给各州自行决策。内华达州、加利福尼亚州和宾夕法尼亚州目前处于领先地位,此外还有至少9个州考虑过立法,允许在某种程度上实现自动驾驶。
让各州自行决策是一个巨大的问题。倘若50个州分别决策,程序员要针对50种不同标准来编程,这实际上是不可能的。程序员更偏好只编写一次程序,并且让程序在所有地方通用。如果50个州、华盛顿特区和其他美国领土都分别使用不同的自动驾驶汽车交通法规和标准,程序员将不得不为每个州重新编写交通规则和汽车操作指南。这样一来,我们很快就会陷入与学校教科书短缺相同的混乱局面。州权是美国民主的重要组成部分,但这对程序员来讲,这就像打游戏遇到了大怪兽。程序员甚至连打字都不喜欢,很难想象他们会愿意去编写50多套不同的交通规则,并且将不同的操作规程传达给每个购买自动驾驶汽车的顾客。
人们难免要谈论自动驾驶汽车,这时,沟通问题会再次浮出水面。负责机动车辆和公路安全的美国国家公路交通安全管理局(NHTSA),不得不提出一个复杂的范围来描述自动驾驶,以便人们在谈论时能有所指。在很长一段时间内,程序员和管理人员都在使用“自动驾驶汽车”这一词语,但不曾确切地对这个词下过定义。再次强调:这在语言上是正常的,但对政策来说就是大问题。为了争夺自动驾驶汽车这一蛮荒领域的话语权,美国国家公路交通安全管理局公布了一系列自动驾驶汽车的类别。该政策内容如下:
自动化分级有多种定义,人们对于其定义标准化的需求已存在一段时间。标准化有助于提高自动化定义的清晰度和一致性。因此,本政策采用美国汽车工程师学会(SAE International,简称SAE)的自动驾驶汽车分级标准,基于“谁何时做什么”将自动驾驶汽车分为以下5个等级:
·SAE L0(无自动化):人类驾驶员全权操作汽车。
·SAE L1(驾驶支援):车载自动化系统偶尔向人类驾驶员提供少量驾驶支援。
·SAE L2(部分自动化):车载自动化系统在某些情况下可实际完成一些驾驶动作及监测驾驶环境,由人类驾驶员持续监测驾驶环境并完成其余驾驶动作。
·SAE L3(有条件自动化):车载自动化系统在某些情况下可实际完成一些驾驶动作及监测驾驶环境,但人类驾驶员需在自动化系统发出请求时随时收回驾驶控制权。
·SAE L4(高度自动化):车载自动化系统可完成驾驶动作及监测驾驶环境,人类驾驶员不一定需要随时收回控制权,但自动化系统只能在限定的环境和条件下运行。
·SAE L5(完全自动化):车载自动化系统可在任何条件下执行人类驾驶员可以执行的所有驾驶动作。[7]
在我写作本书期间,这些标准至少改过一次,可能是两次——这让我想起了不断变动的学校标准。在L3和L4,车辆需要感知周围的环境,因此需要安装复杂、昂贵的传感器。通常使用的传感器是激光雷达、GPS、IMU(惯性测量单元)和摄像头。传感器输入需要转换成二进制信息,由车内的计算机硬件处理。这个过程中的硬件与第2章中组成火鸡俱乐部三明治“层”的硬件是相同的,也是宾夕法尼亚大学的工程师们连接到“小本”后备厢中的硬件。每个级别对计算力的要求都比前一级更高,才能更好地根据传感器的输入做驾驶决策。目前,还没有人能够开发出足够强大的硬件和软件,以支持自动驾驶汽车在任何地点和天气条件下安全行驶。吉田顺子在2017年10月一篇关于最先进的驾驶用计算机芯片的文章中写道:“目前,市面上没有一款汽车的自动驾驶水平超过L2。”[8]L5的汽车在一般驾驶条件下不存在,而且可能永远也不会存在。
自动驾驶技术发展中真正了不起的部分是驾驶辅助技术的兴起。L0到L2出现过有许多有益的创新。就说停车吧,人们真的很希望汽车能够自动平行停车。从几何学的角度看,平行停车只是一个细小的限定动作,是对技术的绝妙运用。
大部分自动驾驶汽车研究和一些训练数据都可以在arXiv和学术知识库中在线获取。[9]在GitHub上,有可供使用的训练数据,还有人们用于参加Udacity开源无人驾驶汽车项目的代码。我看过Udacity的图像数据集,它的信息量比我想象的要少一些。这些数据的一个主要缺点是没有内置异常数据,而且算法无法预测未内置的内容。比如“泰坦尼克号”的数据,算法无法考虑救生艇离开之后,乘客从正在下沉的船上跳到海里的生存概率。
在现实生活中,怪事经常会发生。Waymo公司前领导克里斯·厄姆森是卡内基梅隆大学的毕业生,也是大挑战赛的获胜者,他在一段颇热门的YouTube视频里展示了他观察到的一些怪事。Waymo的测试版自动驾驶汽车多年来一直在山景城附近行驶,收集数据。厄姆森一边笑,一边在视频中展示一群小孩在高速公路上玩青蛙过河的游戏,还有一名坐电动轮椅的女子在路中间绕着圈追逐一只鸭子。这些事情都不常见,但它们确实发生了。人有智慧,他们可以接受怪事;计算机没有智慧,它们容不下怪事。
想想自己坐车时观察到的怪事。我见过的最奇怪的,是一只动物。当时我和我的朋友莎拉驱车在佛蒙特州一条蜿蜒的山路上,准备去看瀑布。我们拐过一个有视野盲区的弯道,路中间突然出现一头巨大的驼鹿。我紧急刹车,车子打滑了一下,我的心跳得快极了。我很好奇,自动驾驶汽车遇到这种情况时如何应对。于是,我打开YouTube,观看了一些粉丝拍摄的把玩驾驶辅助功能的热门视频。我看到的这些视频,无一不是由炫耀酷车的男人制作的,他们不约而同,都非常乐观。《连线》的一位作者在一个YouTube视频里说:“这能让你感到安全。”他当时正在内华达州一条空无人烟的高速公路上行驶。他在视频里吹嘘说,驾驶特斯拉使用自动驾驶仪功能时,他自己无须做太多操作。尽管操作指引中明确要求驾驶员将双手放在方向盘上,他仍多次炫耀自己双手或单手离开方向盘的情景。他演示了特斯拉程序员在代码中隐藏的复活节彩蛋。他在方向盘上点击了6次,显示器的画面进入了马里奥赛车游戏里的彩虹之路。他又展示了另一个复活节彩蛋:驾驶员显示屏上叮当作响播出出自《周六夜现场》的“more cowbell”旋律。
我观看了谷歌旗下另外一家自动驾驶汽车公司Waymo的一些宣传视频。视频的旁白声称他们的技术可以“看到”汽车周围360度方向的环境,以及前方两个足球场距离的视野。汽车的形状经过了优化,以适应传感器的监测范围。目前一个尚未完善的主要设计特征是,计算机必须承受振动和热量波动。“长期以来,我们一直都是在现有的汽车上安东西。现在我们开始意识到,由于需要应对现有汽车的束缚,我们所能做的事情其实非常有限。”Waymo公司的系统工程师热姆·韦多在2014年发布的一个视频中这样说,“就车辆的实际操作而言,传感器和软件确实完成了所有操作。根本不需要方向盘和刹车踏板这样的东西,我们需要考虑的只是一个表示车辆准备就绪的按钮。要制作一辆原型车,我们有很多想法。我们学习了很多关于安全驾驶的知识。”
那我们就来谈谈安全问题。自动驾驶汽车支持者的主要论据是,它们能使道路“更安全”。Waymo公司的CEO约翰·克拉夫茨克(John Krafcik)在他的领英页面上写道:“全球每年有120万人死于交通事故,其中有95%是人为错误造成的。现在全世界有大约10亿辆汽车,这些车辆在95%的时间里闲置着,既浪费金钱,又占用宝贵的城市空间。我们需要做得更好……自动驾驶汽车可以挽救成千上万个人的生命,让人们拥有更强的流动性,摆脱今天那些令人懊恼的驾驶问题。”
克拉夫茨克似乎在谴责驾驶员。讨厌的人类,总是出错!这就是技术沙文主义。人类当然要为这些驾驶失误负责,毕竟只有人类在驾驶汽车!(不过,我确实在下曼哈顿区百老汇的人行道上看到过一辆看似由一只戴着洋基队帽子的狗驾驶的小型奔驰车。后来我恍然大悟,原来狗主人拿着遥控器在后头跟着。后来,我花一个下午愉快地观看了一些动物坐在遥控车上的视频,以此探究喜欢发布这类视频的人。)
我们拥有汽车已经很长时间了,也都知道人类驾驶汽车是会出错的。我们是人,是人就难免出错。我们都知道这一点。即使是那些开发软件的人也会犯错。世界上没有完美的驾驶员。哪怕是为自动驾驶汽车编写软件的人,也难保开车的时候不出错。想想看,人们每年要行驶数万亿英里,而且大部分时间都能避免交通事故,简直不可思议。
95%,这个关于人为驾驶失误的数字一遍又一遍地出现。驾驶事故致人死亡当然是令人悲痛的,我并不是轻视这些死亡数据。只不过,当这样一项单一的统计数字一遍又一遍地出现,我难免心生怀疑。这通常意味着它来自某篇新闻报道,来自媒体的宣传。克拉夫茨克引用的这个数字——95%的人为错误,也出现在2015年2月的一份报告中。该报告由Bowhead系统管理公司资深数学统计学家桑托克·辛格撰写,他在美国国家公路交通安全管理局国家统计与分析中心的数学分析部门工作。[10]该报告分析了5 470起事故的加权样本,并为每起事故标记出原因,事故原因包括司机、汽车或环境(即道路或天气)。
Bowhead系统管理公司是尤克匹亚格维克因纽皮特公司(Ukpeaġvik Iñupiat Corporation,简称UIC)旗下的子公司。这是一家政府承包的公司,负责管理海军在马里兰州和内华达州的无人自治系统(Unmanned Autonomous System,简称UAS)业务。换句话说,Bowhead是一家制造军用无人自治系统的公司,它创建了官方的政府统计数据,这证明制造民用的无人自治系统(即无人驾驶汽车)是正当的。
美国国家卫生统计中心的报告称,2014年机动车交通事故死亡人数是35 398人。这是该中心最新的年度公开数据,这个数字表示每10万人中有11人因交通事故死亡。总的来说,标准死亡率(即按人口年龄构成调整的死亡率)则是每10万人中有724.6人因交通事故死亡。
许多人死于交通事故,这是一个重大的公共卫生问题。在统计学术语中,死于伤病被称为“伤害死亡率”。与机动车交通相关的意外伤害是2002年到2010年伤害死亡的主要原因,其次是意外中毒。2015年,美国国家公路交通安全管理局的报告显示,2015年机动车交通事故死亡人数比2014年增加了7.7%。据估计,2015年,有大约35 200人死于交通事故,高于2014年的32 675人。
我们可以推测其中的原因。行车时发短信、分心驾驶无疑会导致死亡人数上升。一个直接的解决方案是在公共交通上投入更多的资金。在加州的湾区,公共交通的资金严重不足。记得上一回在旧金山的高峰时间搭地铁时,我等了三趟列车,才勉强挤上一趟挤满人的列车。地下尚且如此,地上的情况更加糟糕。因此,湾区的程序员想要制造自动驾驶汽车,省下搭乘公共交通工具的时间来干点别的事情,我一点都不意外。根据我有限的观察,在湾区通勤要花相当长的时间在乘坐交通工具上。但是,公共交通系统的资金投入是一个复杂的问题,需要好几年的大规模协作。这类项目涉及政府机构,正是技术人员不想攻克的那种项目,因为这类项目通常要花费很长时间,而且非常复杂,一出问题就很难修复。
此时,自动驾驶汽车仍是一个幻想。2011年,塞巴斯蒂安·特龙在谷歌建立了神秘部门Google X,也叫“登月工厂”。2012年,他创办了一家MOOC(大规模开放网络课程)公司——优达城(Udacity)。优达城也失败了。“我立志为人们提供精深的教育,教授一些实质的知识。但数据不遂人愿。”特龙告诉《快公司》(Fast Company)杂志,“我们的产品很糟糕。”[11]
特龙对自己遭遇过的失败尝试很坦白。但似乎没有人听他的,为什么呢?最简单的原因,可能是贪婪。科技投资者罗杰·麦克纳米告诉《纽约客》杂志:“实际上,我们当中的一些人来这里是为了让世界变得更美好。这话听起来颇天真。我们没能成功,我们确实让一些事情变得更好了,但也让一些事情变得更糟了。与此同时,自由主义者们接管了这一切,但他们根本不在乎对与错,他们只是来赚钱的。”[12]
最终,2017年,我出于好奇,想知道现实技术的发展是否已达到我阅读到的资料所指的程度,于是我尝试预约乘坐一辆无人驾驶汽车。我先试着预约优步,匹兹堡离我家不太远。公关人员告诉我,暂时没有可预约的无人驾驶汽车。我询问我是否可以到匹兹堡自己约一辆车,回答也是否定的。我终于明白了:这些汽车尚未被广泛投入使用。此时还不是他们推出的最佳时机。
这些汽车存在一些问题。它们在维护不善的道路上时,无法保持沿着街道的中心线行驶。它们不能在雪天或其他恶劣天气条件下行驶,因为在这些天气条件下,他们无法“看到”东西。甚至曾有一辆汽车被发现在单行道上逆行——显然,它的软件并未发现当时的街道是单行道。自动驾驶汽车上的激光雷达导航系统通过反射附近物体的激光束来工作。通过测量反射时间,它可以估计物体的距离。在雨、雪或尘土条件下,光束会被空气中的粒子反弹,而不会像人在骑自行车时被障碍物反弹那样。这些汽车很容易被混淆,因为它们都依赖表现平平的图像识别算法,这个算法会把黑人误认为大猩猩。[13]大多数自动驾驶汽车使用的算法被称为深度神经网络,在停车标志上贴上贴纸或涂鸦,就会让它们感到迷惑。[14]GPS被骇客入侵对自动驾驶汽车来说是一件极其危险的事。袖珍GPS干扰器是非法的,但在网上只要50美元左右就可以轻易买到。商业卡车司机通常会使用干扰器,以便免费通过GPS收费站。[15]自动驾驶汽车使用GPS导航;当一辆自动驾驶汽车在高速公路上以每小时75英里的速度行驶时,隔壁车道的干扰器使它的导航系统失灵,那它会发生什么?
在科学界,有一股怀疑论的暗流在涌动。一位人工智能研究者告诉我:“我有一辆特斯拉。它的自动驾驶仪一言难尽……我只有在高速公路上行驶时才敢使用它,它不适合在城市的道路上使用。自动驾驶技术还没有那么完善。英伟达公司(NVIDIA)发现,自动驾驶汽车的算法平均每10分钟就会出一次错。”这一观察结果与特斯拉用户手册一致,后者指出自动驾驶仪只能在司机的监督下用于短时间的高速公路行驶。
2017年,优步公司在时任CEO特拉维斯·卡兰尼克被拍到向优步司机法兹·卡迈勒大发脾气之后,一时间负面报道不断。卡迈勒先前损失了9.7万美元,并表示他已经破产,因为优步降低车费的商业策略致使司机的时薪低至10美元。当时,卡兰尼克的净资产是63亿美元。卡迈勒将自己的困境告诉卡兰尼克,卡兰尼克这样答复他:“有的人就是不愿意为自己搞出的烂摊子负责。他们就爱把自己失败的人生归咎到别人身上。祝你好运!”优步无视州法规,在加州推出了自动驾驶汽车。经过了一场官司之后,他们被叫停。卡兰尼克聘请了美国国防部高级研究计划局大挑战的参与者安东尼·莱万多夫斯基,后者曾在谷歌X和Waymo与特龙共事。2017年5月,莱万多夫斯基被优步解雇,原因是在一项关于他是否从Waymo窃取知识产权并用于优步技术发展的调查中,他未予配合。[16]
2016年5月,俄亥俄州坎顿市的约书亚·D.布朗成为第一个死于自动驾驶汽车交通事故的人。40岁的布朗是一名海豹突击队员和爆炸品处理(EOD)技术人员,转业后成为科技型创业者。他在使用自动驾驶仪功能的过程中,在特斯拉车中身亡。他对自己的车信心十足,竟然让自动驾驶仪完全控制车辆。那天的天气非常晴朗,车辆的传感器未能探测到一辆正在穿行前方路口的白色半牵引车。特斯拉从卡车下方冲过去,车顶瞬间被撞毁,底座继续前行了几百码之后停下。[17]
特斯拉在事故发生后的一份声明中表示:“自动驾驶仪在驾驶员的监督下运行,能够减少驾驶员的工作量,并且显著提高统计意义上的安全性。”[18]对于这次事故,美联社写道:
这次事故并不是自动制动系统首次出现故障,早前已有若干次事故导致车辆被制造商召回修复。例如,去年11月份,丰田公司召回了3.1万辆大型雷克萨斯轿车和丰田汽车,因为其自动制动系统雷达会将路面上的金属物件识别为障碍物,并且自动刹车。另外,福特在去年秋天召回了3.7万辆F-150皮卡,因为它们在前方路面无障碍物的情况下仍进行了自动刹车。该公司表示,遇到巨大又反光的卡车时,雷达可能会犯糊涂。
车评杂志《凯利蓝皮书》(Kelley Blue Book)的分析员迈克·哈雷表示,这项技术依赖于多个摄像头以及雷达、激光和计算机的共同配合,来检测物体并判断物体是否位于车辆前方。他说,特斯拉使用的这种重度依赖摄像头的系统“技术还不成熟,尚不能克服强光或低对比度的光线条件造成的盲区”。
哈雷称事故造成死亡是不幸的,但又表示在自动技术完善的过程中,可能还会发生更多死亡事件。[19]
美国国家公路交通安全管理局对此事故进行了调查。基本上,他们就差直接说这全是布朗一个人的错了。不过,他们也特别提到,特斯拉也许应重新考虑“自动驾驶”功能的命名。
自动驾驶汽车如何应对路面情况,可以说是生死攸关的大事。特斯拉Model X P90D的整备重量是5 381磅。作为参考,一头雌性亚洲象的重量大约是6 000磅。
就在我没能在匹兹堡预订到优步自动驾驶汽车之后,我试着预约英伟达公司的车。英伟达生产用于自动驾驶汽车的芯片。他们告诉我,现在时间不巧,让我在拉斯维加斯的消费类电子产品博览会(CES)结束之后再回来咨询。我照做了,但他们没有回复我。Waymo公司在其网站上表明不接受媒体的任何要求。于是,为了从消费者的角度了解这项技术的最新进展,我预约了一辆特斯拉试驾。那是一个晴朗的冬日早晨,阳光明媚,空气清爽,我和家人前往曼哈顿的特斯拉经销商那里。这家经销商的展厅位于西25街的肉库区,就在高线公园下边。展厅周围是艺术画廊,这些画廊的位置以前都是汽车修理厂。街对面是一幅女性轮廓的铁艺作品,有人用纱线缠住这些铁丝,将金属都盖住了。一件桃色钩针比基尼软塌塌地挂在金属架上。
我们进了店,看见一辆红色的Model S轿车。在它旁边,停着一辆同为深红色的小版电动车。这是特斯拉Model S和Radio Flyer合作推出的儿童版。它就像芭比吉普、迷你约翰·迪尔卡车和动力轮电动车,只不过是特斯拉的版本。我被吸引住了。
我们和一位名叫瑞安的销售人员试驾了一辆Model X。车门关闭和打开的样子就像猎鹰的翅膀一样。我的儿子走到车边,瑞安按下遥控器,车后座的门打开了。遥控器是一个小特斯拉的形状。门慢慢地打开,开到一半。“它检测到你站在那儿,”瑞安说,“车门不会突然翻开,不然会撞到你,它可看得见你呢。”门停住了,它没能完全打开。瑞安又按了按遥控器,他看起来有点忧虑。他走开去了解情况。我们站在人行道上,看着这一切。
瑞安回来了,看起来松了一口气。“是传感器出了问题。”瑞安解释道。车门传感器旁边有一块店里的“街道清洁日禁止停车”标牌,这块标牌的绿色金属杆和传感器靠得很近。传感器就在后座车轮上方,是安装在车身上的八个摄像头之一。瑞安说,刚才车门就是因为这根金属杆才没能完全打开。他保证,待会儿我们试驾回来,换个停车位置,肯定可以拍到这辆车张开翅膀的照片。
我们上了车,瑞安介绍了车上所有设备的位置。我深吸了口气,车里闻起来是一股新车味和奢华味。驾驶座是白色的“素食皮革”(即人造皮革),座椅靠背则包裹着一个锃亮的黑色塑料外壳,看起来就像20世纪60年代“007”系列电影里的道具。真的,整个经历非常有詹姆斯·邦德的感觉。
我把脚踩在刹车踏板上,汽车启动了。车上有一个巨大的触摸屏,就在普通汽车上列着许多按钮的位置上。Model X上只有两个按钮,一个是危险警告灯的开关。瑞安抱歉地摆摆手,解释说:“这是联邦政府要求的。”另一个按钮在大触摸屏的右侧,是储物箱的开关。
乘坐电动车的感觉没有燃气引擎汽车那么颠簸。燃气引擎会发生一阵微妙的震动,特斯拉没有这种震动感。当我们从停车位出发驶向西侧高速公路的时候,车子安静而平稳。
我试着通过方向盘左侧的一根控制杆来启动自动驾驶仪。我将它向我的方向拨了两次,试图启动它。它发出声响,控制台上一盏橙色灯闪烁了起来。“这是一辆新车,它的自动驾驶仪没有启动。”瑞安解释道,“我们前几天刚发布了一次自动驾驶仪的大规模更新。这辆车需要几周时间来收集数据,之后就能顺利运行了。”
“那就是说,它不管用?”我问。
“管用呀,”瑞安说,“其实车子已经准备好完全自动驾驶了,但我们还不能放开施行,因为法规,你懂的。”所谓的“因为法规,你懂的”,意思就是说约书亚·布朗死于自动驾驶仪所导致的交通事故,NTHSA尚未完成事故调查,因此特斯拉暂时关闭了所有汽车的自动驾驶系统,直到开发人员构建、测试并推出新功能为止。
瑞安聊到了未来,他认为未来特斯拉汽车会无处不在。“等我们可以放开施行完全自动驾驶的时候,按埃隆·马斯克的说法,无论你身在何处,都能够一键召唤你的车。可能它需要几天才能找到你,但它总会到达。”不知道他有没有想过,如果要花好几天等待自己的车到达,那么拥有一辆车还有什么意义呢。
谈及自动驾驶汽车时,“将来会有一天”是最常见的话头。不是假设,是总会有这么一天。这个说法对我来说很奇怪。我无法在优步、英伟达或Waymo预约到无人驾驶汽车,这与瑞安所说的“因为法规,你懂的”并无二致。自动驾驶汽车并没有被真正派上用场。或者,它在简单的驾驶场景中是管用的——比如晴朗的日子里,在一条新画好线的空无人烟的高速公路上。优步的子公司奥托让一辆自动驾驶啤酒运输车从东海岸自动开往西海岸,就是利用这一点作为宣传噱头。如果条件设置得恰好,那它看起来就像是管用的。其实,这项技术的缺陷还有很多。不间断的自动驾驶需要两台车载服务器——一台用于操作,一台用于备份。两台服务器的总功率会达到5 000瓦。这个瓦特数会产生大量热,5 000瓦产生的热量足以为一个400平方英尺的房间供暖。目前还没有人想好要如何使用冷却技术来解决这个问题。[20]
瑞安指导我驶入西侧高速公路,汇入车流。通常情况下,我会松开油门让车减速,并向红灯停车处缓行,在车到达之前踩下刹车。但特斯拉有一个“再生制动”功能,当我把脚从油门上移开时,刹车就起作用了。这个功能很令人困惑,因为你得改掉原来的驾驶习惯。这时,有人冲我按喇叭。我不知道他冲我按喇叭是因为我对交通灯的反应不妥,还是因为我开着豪车,他就故意跟我过不去,或者只是因为他是一个普通的纽约混蛋。
我沿着高速公路行驶,转进铺满鹅卵石的克拉克森街道。行车的感觉不像平时那么颠簸,瑞安引导我赶紧行经休斯敦,驶入一段长长的平路。这里没有私人车道,也鲜有行人,长长的路一直延伸到航运设施后面。“打开吧,”瑞安催促我,“这儿没有人,试试看。”
说来就来。我全速踩下油门——我一直想这么干,车子往前冲。这马力真令人沉醉。加速度把我们往椅背上推。“感觉就像室内过山车似的!”瑞安说。坐在后座上的我儿子表示赞同。可惜这个街区还不够长,我们又回到西侧高速公路上。我又踩下油门,就为了感受一阵狂飙。所有人又被抛向椅背。
“对不起,”我说,“我太喜欢这样干了。”
瑞安放心地点点头说:“你的车开得非常好。”我笑了。他可能对每个顾客都这么说,但我不在乎。我从后视镜里看到我的丈夫,他坐在后座上,脸色有点发青。
“这是市场上最安全的车,”瑞安说,“有史以来最安全的车。”他给我讲了美国国家公路交通安全管理局曾对特斯拉进行碰撞测试,但没能撞坏它的故事。“他们试图把车翻过来,但失败了。他们不得不弄来一架叉车,才把特斯拉翻过来。我们自己做了碰撞测试,让特斯拉往墙上撞,结果墙被撞坏了。他们在特斯拉上加压力做测试,车子就把加压设备撞坏了。特斯拉撞坏的测试设备比任何汽车都多。”
我们在村路上遇到了另一辆特斯拉,互相挥手致意。特斯拉车主都这样干,他们会互相打招呼。试试开辆特斯拉上旧金山的高速公路,你的手臂会酸痛不已。
瑞安总说起埃隆·马斯克。跟任何其他汽车设计师不同,马斯克个人的拥趸不少。福特探险家的设计师是谁?我不知道。但是,埃隆·马斯克的盛名,就连我儿子都知道。“他很出名,”我儿子说,“他甚至客串出演过《辛普森一家》。”
我们停好车,拍了一张照片:我儿子和我站在那辆亮白色的汽车旁边,车门像翅膀一样张开。我们回到停在外面的自家车上。“现在感觉这辆车好老派。”我儿子说。我们沿着西侧高速公路行驶回家,又经过了那条铺满鹅卵石的克拉克森街道。车子在鹅卵石路上颠簸,这与我们驾驶特斯拉时的平稳大相径庭。我感到车子在不停地轻晃着我。这种曾经沧海的感觉,就像在米其林三星餐厅勒·贝纳丁吃午餐,回家之后发现晚餐只有热狗可以吃。
作为一款汽车,特斯拉非常了不起,但是作为一款自动驾驶汽车,我仍持怀疑态度。它的部分问题在于机器伦理尚未最终厘清,因为它太难被清晰表述了。自动驾驶技术的伦理困境通常由经典哲学实践——电车难题引发。想象一下,你开着一辆电车在轨道上疾驶,冲向前方轨道上的一群人。你可以立即转到另一条轨道上,但你会撞上另外一个人。你选择哪一种,一个人的必然死亡还是许多人的必然死亡?谷歌和优步聘请了哲学家来研究这个伦理问题,并将其写入软件。但这个问题目前还没有被解决。2016年10月,《快公司》报道称,奔驰对其汽车进行了编程,他们决定始终优先拯救驾驶员和乘客。[21]如果一辆自动驾驶的奔驰车冲向校车站的一群孩童,它可以选择撞树,但它的“大脑”会决定撞向那群孩童,因为这是最有可能保证司机安全的策略。反之,人类驾驶员可能会选择撞树,因为孩子们的生命是宝贵的。这个场景可一点都不理想。
再想象一下:汽车被设定为牺牲司机和乘客,以保全旁观者。你会带你的孩子上车吗?你会让家人坐这种车吗?你愿意在马路上、人行道上,或者骑自行车的时候,和这些无人驾驶汽车并行吗?——这些汽车的软件很不可靠,它们被设计成随时准备杀死你或司机。你信任那些代表你做出这些决定的不知名程序员吗?对自动驾驶汽车来讲,“死亡”是一项特征,而不是一个漏洞。
电车难题是计算机伦理学的经典教学案例。许多工程师应对这种困境的方式难以服众。“如果你知道你至少能救一个人,那就要救这个人。先救车里那个人。”奔驰无人驾驶汽车安全经理克里斯托弗·冯·雨果在接受《名车志》(Car and Driver)杂志采访时表示。[22]计算机科学家和工程师们遵循明斯基和前几代人的先例,往往不三思自己将要打开的先河,也不考虑细小的设计决策蕴含的意义。他们应该要三思,但是他们经常不这样做。而且,业内也没有针对工程师和计算机科学家的伦理培训。不过,美国计算机协会(Association for Computing Machinery,简称ACM)倒是有一套道德准则。2016年,它做了自1992年以来的第一次修订。请记住,互联网是在1991年推出的,Facebook是在2004年推出的。
推荐的标准计算机科学课程中也有伦理要求,但没有强制执行。据记录,几乎没有大学开设过计算机或工程类的伦理课程。伦理与道德超出了本书目前的讨论范围,但可以肯定的是,这并不是一个新的领域。我们通常基于历史先例而得知事物的真相或得知如何应对事物,但当我们所遭遇的情境突破了这些先例的边界,我们就会使用道德考量和社会契约的概念进行权衡。我们会进行猜想,得出一个能与社会集体框架相称的决策。这些集体框架可能是由宗教团体或实体社群塑造出来的。然而,当人们不需要融入集体框架,或对其他人没有责任感,就会倾向于做出异常的决策。因此,在自动驾驶汽车领域中,我们也无法确保商业写字楼里个别技术人员做出的决策能否切实符合集体利益。这不禁让我们再次发问:这项技术是为谁服务的?我们该如何使用这项服务?如果自动驾驶汽车的程序设定为优先拯救驾驶员而罔顾幼儿园孩童,这是为什么?接受程序的默认设置并上路驾驶意味着什么?
包括技术专家在内的很多人都为自动驾驶汽车这个课题敲响警钟,他们对业内人士尝试攻克目前尚未解决的难题的方式感到担忧。互联网先驱杰伦·拉尼尔接受采访时警告其可能引发的经济后果:
自动驾驶汽车的工作原理与大数据息息相关。自动驾驶汽车的,并不是一个懂得如何驾驶汽车的人造智能大脑。他们只是把街道进行了详细的数字化。那么,数据从哪里来?某种程度上,这些数据都来自自动相机。无论数据来自何处,总会有人在最底层操作这些数据,它并不是真正的自动化。发现路面新坑洞的人,可能是戴着谷歌眼镜的人,也可能是骑着自行车上街的人——无论是谁,只有少数人在采集这些数据。这样一来,数据成了干净数据,它的价值就上升了。今天,自动驾驶系统所需的信息更新输入,每一比特都比我们所能想象的更具价值。[23]
在拉尼尔描述的这个世界里,汽车安全性可能要依赖于货币化的数据。那是一个反乌托邦的世界,最好的数据会流向能够支付得起最多费用的人。他警告说,自动驾驶汽车未来的发展道路很可能既不安全,也不符合道德伦理,也未必会为大众创造福祉。但问题是,这些话很少有人听得进去。人们的共识是“无人驾驶汽车非常厉害,而且即将推出”,却鲜有人细想,“即将推出”可是技术专家几十年来的口头禅。至今,所有自动驾驶汽车的“实验”都需要人类驾驶员和工程师全程跟进,只有技术沙文主义者会称此为成功,而非失败。
自动驾驶汽车项目促进了一些正面的消费意识进步。我的车四面都装上了摄像头,实时的拍摄功能让停车更加方便。现在一些豪华轿车装有平行停车功能,可以协助驾驶员把车停到狭小的车位上。有些车则有车道监控功能,在汽车太过靠近车道标记线的时候发出警报。我就认识一些开车时会焦虑的人,他们非常看好这个功能。
然而,安全性并不是汽车的卖点。车载DVD播放器、车载Wi-Fi和集成蓝牙这类新功能更能提高汽车制造商的利润。不过,这也未必会为大众创造福祉。安全性统计数据表明,车内装载的技术设备太多,不一定利于驾驶。国家安全委员会是一个监管机构,据它报道,53%的司机认为,既然汽车制造商能将信息娱乐仪表板和免提技术安装到车上,那它们应该就是安全的。实际上,情况正好相反。随着越来越多的信息娱乐技术进入汽车,交通事故发生得也越来越频繁。人们开始在驾车的时候用手机发短信,分心驾驶的发生率因此提高。美国每年有3 000多人死于道路上的分心驾驶交通事故。国家安全委员会估计,驾驶员在查看手机之后,平均要花27秒才能再次将全部注意力集中到驾驶上。美国有46个州,以及哥伦比亚特区、波多黎各、关岛和美属维尔京群岛禁止驾驶时发短信。然而,驾驶员在开车的时候还是坚持使用手机打电话、发短信或者查行车路线。其中以年轻人居多。根据美国国家公路交通安全管理局的数据,2006年,有0.5%的16岁到24岁驾驶员被发现在行车时使用手持设备,这一数字在2015年增长到了4.9%。[24]
开发自动驾驶汽车来解决安全驾驶问题,就像部署纳米机器人来杀死盆栽上的害虫一样。我们真正应该专注开发的是人类辅助系统,而不是人类替代系统。关键不在于让机器来掌管世界,人类才是重点。我们需要以人为本的设计。举个以人为本的设计例子,汽车制造商可以在其标准车载套装中预装一个屏蔽驾驶员手机的设备,这项技术现在是存在的。这个设备是可定制的,驾驶员在紧急情况下可拨打报警电话,除此之外不能打电话、发短信或上网。这将大大减少分心驾驶的情况。但是,这种设计不会促进经济发展。自动驾驶汽车的大量炒作背后,隐藏着赚大钱的希望。很少有投资者会放弃这种机会。
自动驾驶汽车的经济性可能取决于公众的看法。2016年,《连线》杂志发表过一篇时任总统巴拉克·奥巴马和麻省理工学院媒体实验室主管伊藤穰一的对话,两人谈到了自动驾驶汽车的未来。[25]“这项技术基本上已经成形了。”奥巴马说。
我们拥有了这种可以做出一系列快速决策的机器,这些机器能够帮我们大大减少交通事故死亡率,大幅提高交通网络的效率,还能帮助解决导致全球变暖的碳排放等问题。但是,伊藤提出了一个非常优雅的观点——我们想要给汽车嵌入什么样的价值观?我们必须做出一系列选择,经典的难题有:在行车中,你可以转弯以避开一个行人,但是车子可能会撞到墙上,把你撞死。这是一个关乎道德的决策,是谁在制定这些规则?
伊藤回应道:“我们发现,大多数人在面对电车难题时,更偏向于牺牲司机和乘客以拯救多数人。他们还说,他们绝不会购买自动驾驶汽车。”我们总被唆使着把生命交与那些机器,但其实人类要比那些机器更道德,也更聪明,这一点并不令人意外。
[1] “Robot Car ‘Stanley’ designed by Stanford Racing Team.”
[2] “Karel the Robot.”
[3] Pomerleau, “ALVINN, an Autonomous Land Vehicle in a Neural Network”;Hawkins, “Meet ALVINN, the Self-Driving Car from 1989.”
[4] Mundy, “Why Is Silicon Valley So Awful to Women?”
[5] Oremus, “Terrifyingly Convenient.”
[6] DARPA Public Affairs, “Toward Machines That Improve with Experience.”
[7] National Highway Traffic Safety Administration and US Department of Transpor tation, “Federal Automated Vehicles Policy.”
[8] See Yoshida, “Nvidia Outpaces Intel in Robo-Car Race.”Yoshida may be referring to a different standards document, in which Level 2 i s equivalent to the Level 3 quoted here. Again: language and standards matter a great deal in engineering.
[9] Liu et al., “CAAD: Computer Architecture for Autonomous Driving”; Thrun,“Making Cars Drive Themselves”; Thrun, “Winning the DARPA Grand Challenge.”
[10] See Singh, “Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey.”For more on special interest groups using statistics to construct or influence public opinion, see Best, Damned Lies and Statistics. Statis tics are one of the ways we understand social problems, and they are often helpfulin calling attention to social ills. For example, Mothers Against Drunk Driving used statistics to bring about change in drunk driving laws, which has led to greater public safety. Most people now agree that people shouldn’t drive drunk. However,claiming that people shouldn’t drive and machines should — that’s different story.
[11] Chafkin, “Udacity’s Sebastian Thrun, Godfather of Free Online Education,Changes Course.”
[12] Marantz, “How ‘Silicon Valley’ Nails Silicon Valley.”
[13] Dougherty, “Google Photos Mistakenly Labels Black People ‘Gorillas.’”
[14] Evtimov et al., “Robust Physical-World Attacks on Deep Learning Models.”
[15] Hill, “Jamming GPS Signals Is Illegal, Dangerous, Cheap, and Easy.”
[16] See Harris, “God Is a Bot, and Anthony Levandowski Is His Messenger”; Mar shall, “Uber Fired Its Robocar Guru, But Its Legal Fight with Google Goes On.”Harris also writes that Levandowski founded a religious organization, Way of the Future, in an attempt to“develop and promote the realization of a Godhead based on Artificial Intelligence.”
[17] Vlasic and Boudette, “Self-Driving Tesla Was Involved in Fatal Crash, U.S. Says.”
[18] Tesla, Inc., “A Tragic Loss.”
[19] Lowy and Krisher, “Tesla Driver Killed in Crash While Using Car’s ‘Autopilot.’”
[20] Liu et al., “CAAD: Computer Architecture for Autonomous Driving.”
[21] Sorrel, “Self-Driving Mercedes Will Be Programmed to Sacrifice Pedestrians to Save the Driver.”
[22] Taylor, “Self-Driving Mercedes-Benzes Will Prioritize Occupant Safety over Pedestrians.”
[23] Been, “Jaron Lanier Wants to Build a New Middle Class on Micropayments.”
[24] Pickrell and Li, “Driver Electronic Device Use in 2015.”
[25] Dadich, “Barack Obama Talks AI, Robo Cars, and the Future of the World.”