人工智能的缓慢进展,成了自动驾驶发展的路障
原作:Russell Brandom@theverge
李杉 编译整理
量子位 出品 | 公众号 QbitAI
如果你相信科技大佬的话,全自动驾驶汽车可能只需几个月的时间就能实现。
2015年,伊隆·马斯克(Elon Musk)预计特斯拉将在2018年发布全自动驾驶汽车。谷歌同样如此。德尔福和MobileEye的四级系统目前定于2019年发布,Nutonomy也计划于同一年在新加坡街头部署数千辆无人驾驶出租车。通用汽车将在2019年投产全自动驾驶汽车,取消了方向盘,甚至不允许司机介入。
这些预测背后都是真金白银的投入,他们都认为可以借助软件追上这股浪潮。
从表面上看,全自动驾驶似乎比以往任何时候都更贴近现实。Waymo已经在亚利桑那州的公共道路上展开有限制的测试。特斯拉和许多其他模仿者已经开始销售功能有限的半自动驾驶套件,但需要在意外情况下依靠司机进行干预。虽然发生了一些事故,有的甚至是致命事故,但只要系统不断改进,我们就会遵循这样一条基本逻辑:人类距离完全无需人工干预的无人驾驶汽车不会太远。
然而,全自动驾驶汽车的梦想可能比我们想象的更加遥远。
人工智能专家越来越担心,我们可能需要等待几年,甚至几十年的时间,才能让自动驾驶系统可靠地避免事故。随着自我训练的系统逐渐学会应对现实世界中的各种复杂状况,像纽约大学的加里·马库斯(Gary Marcus)这样的专家正在面临意料之中的痛苦校准,这种校准时期有时被称为“人工智能寒冬”。由此造成的延迟可能会给那些依靠自动驾驶技术的公司带来灾难性后果,导致整整一代人都无法真正享受无人驾驶汽车带来的便利。
很容易理解汽车厂商为什么对无人驾驶技术持乐观态度。在过去10年间,深度学习(一种使用分层机器学习算法从海量数据集中提取结构化信息的方法)已经在人工智能和科技行业取得了几乎不可思议的进步。它为谷歌搜索、Facebook News Feed信息流、会话式语音速记以及获得世界冠军的围棋系统提供技术支持。在互联网之外,我们使用深度学习来检测地震,预测心脏病,标记视频流中的可疑行为,以及无数其他原本不可能实现的创新。
但深度学习需要具备大量的训练数据才能正常工作,几乎包含算法可能遇到的每个场景。例如,谷歌图片这样的系统非常善于识别动物,只要有训练数据可以向其展示每种动物的样子即可。马库斯将这种任务描述为“插值”,对所有标记为“豹猫”的图像进行分析,并确定新图片是否属于该组。
工程师可以在数据来源和数据渠道上采取一些有创造力的做法,但某个具体算法所能施展的范围仍然面临严格限制。同样一个算法需要首先看到成千上万的豹猫照片才能识别这种动物——即使它查看过家猫和美洲虎的照片,并且知道豹猫介于两者之间,仍然无济于事。后一种过程被称为“概括”,它需要的是一套不同的技能。
长期以来,研究人员认为他们可以通过正确的算法提高概括能力,但最近的研究表明,传统深度学习技术的概括能力并没有我们想象的那么强大。一项研究发现,传统的深度学习系统甚至难以归纳一段视频不同帧上的内容,在背景发生细微变化时,同一个北极熊会被分别标记为狒狒、猫鼬或黄鼠狼。由于每个分类都结合了数百个因素,因此,即使是图片发生的微小变化也可以完全改变系统的判断,而其他研究人员也曾经在对抗数据集中利用这一缺陷。
马库斯指出,聊天机器人热潮是通用人工智能最近遭遇挑战的一个显著例子。“我们在2015年对聊天机器人技术做出承诺,”他说,“但它们没有实现进步,因为问题并不仅仅是收集数据。”
当你在网上与一个人交谈时,你不仅仅想要他们重新讨论之前的对话。你希望他们回应你所说的话,利用更广泛的会话技巧来产生有针对性的回应。深度学习无法制作那种聊天机器人。一旦最初的热潮消退,企业就对他们的聊天机器人项目失去了信心,很少有企业仍在积极开发这种技术。
这也导致特斯拉和其他无人驾驶汽车公司面临一个可怕的问题:自动驾驶汽车能像图片搜索、语音识别和其他人工智能领域的成功故事那样越来越好吗?或者,它们会遇到聊天机器人那样的归纳问题吗?无人驾驶汽车究竟是插值问题还是归纳问题?驾驶有多么难以预测?
想在现在回答这个问题可能还有些为时尚早。“无人驾驶汽车就像一个我们不知道答案的科学实验,”马库斯说。我们以前从未达到这种级别的自动驾驶,所以我们不知道它是什么类型的任务。在某种程度上讲,它的作用是识别熟悉的对象和遵循规则,现有技术应该可以完成任务。
但马库斯担心,在事故多发的情况下驾驶可能比行业所认为的要复杂得多。“从出人意料的新事物出现的数量来看,这对于深度学习来说并不是一件好事。”
我们的实验数据来自公共交通事故报告,每个报告都透露出一些不寻常的担忧。2016年的一场致命车祸导致Model S全速撞向白色半挂车后部,原因是半挂车底盘过高,加之太阳光明亮的反射导致系统误判。
3月份,当一名女士推着自行车横穿马路时被撞身亡,肇事车辆是一辆Uber无人驾驶汽车。根据美国国家运输安全委员会的报告,Uber的软件错误地将该女性识别为一个未知物体,然后识别为一辆车,最后识别为一辆自行车。在加州的一次交通事故中,Model X在发生事故之前转向隔离墩并加速行驶,但事故原因目前仍未查明。
每次事故似乎都是一个边缘案例,工程师无法提前做出预测。但几乎所有的车祸都涉及某种不可预见的情况,如果没有概括能力,自动驾驶汽车在面对每一个情景时都像是第一次遇到这种情况一样。结果将会引发一连串的事故,但这些事故不会随着时间的推移而减少,危险性也不会因此而降低。对于持怀疑态度的人来说,相关统计报告这种情况已经发生,技术已经到达平台期。
百度前高管、Drive.AI董事会成员吴恩达是无人驾驶行业最杰出的推动者之一,他认为问题不在于建立一个完美的驾驶系统,而在于训练旁观者预测无人驾驶汽车的行为。换句话说,我们可以为汽车提供安全的道路,而不是为道路提供安全的汽车。我问他是否认为现代系统能在从未见过的情况下识别弹簧单高跷上的行人。“我认为许多无人驾驶汽车团队可以识别人行横道上使用弹簧单高跷的行人。”吴恩达说。“话虽如此,在公路中间使用弹簧单高跷是非常危险的。”
“我们应该与政府合作,要求人们采用合法行为,并体谅各种难处,而不是用人工智能来解决弹簧单高跷问题,”他说。“安全不仅仅与人工智能技术的质量有关。”
深度学习不是唯一的人工智能技术,公司已经在探索替代方案。虽然技术在行业中受到严密保护(看看Waymo最近针对Uber发起的诉讼就知道了),但许多公司已经转向基于规则的人工智能,这是一种比较老套的技术,可以让工程师将特定的行为或逻辑硬编码到无人驾驶系统中。它无法通过研究数据来决定自己的行为,但这恰恰是深度学习如此令人兴奋的原因。
然而,这却能帮助企业避开深度学习所面临的一些局限性。但由于深度学习技术仍然深刻地影响了“感知”这项基本任务,因此很难判断工程师会如何成功隔离潜在的错误。
Lyft董事会成员、风险投资家Ann Miura-Ko表示,她认为问题的一部分是对自动驾驶汽车本身的期望过高,将任何无法实现全自动驾驶的产品归类为失败。Miura-Ko说:“我认为所有这些细微的进步都是实现全自动驾驶的非凡特征。”
不过,目前还不清楚自动驾驶汽车会在目前这种状态保持多长时间。像特斯拉Autopilot这样的半自动产品已经足够智能,可以处理大多数情况,但如果发生难以预测的事情,仍然需要人为干预。当出现问题时,很难判断究竟应该归咎于汽车还是司机。某些评论家认为,这种混合模式的安全性也有可能低于人类驾驶员,即使很难将错误完全归咎于机器。
兰德公司(Rand Corporation)的一项研究估计,自动驾驶汽车必须在没有致命事故的情况下行驶2.75亿英里才能证明它们和人类驾驶员一样安全。与特斯拉Autopilot相关的第一起致命事故大约发生在该项目推进了1.3亿英里的时候,远远低于上述标准。
但将深度学习融入汽车的识别和响应系统之后,改善事故率可能比表面看起来更加困难。“这不是一个容易被孤立出来的问题,”杜克大学教授玛丽·卡明斯(Mary Cummings)特意提到是今年早些时候发生的Uber撞死行人事故。“感知决定周期通常是环环相扣的,就像那起行人死亡事故一样。决策是基于模糊的感知做出的,而且因为通过传感器得到了太多错误的警报,所以才关闭了紧急制动功能。”
此次事故导致Uber今年夏天暂停无人驾驶汽车计划,对其他公司的计划来说,这也成了一个不祥之兆。
在整个行业中,企业都在竞相收集更多数据来解决问题,因为他们都认为,谁拥有的数据最多,谁就将开发最强大的系统。但早期企业看到数据问题时,马库斯却看到了更难解决的问题。
“他们只是使用自己所拥有的技术,希望它能发挥作用,”马库斯说。“他们都依靠大数据,因为这是他们的拐杖,但没有任何证据表明你的精确度能够达到我们的要求。”
— 完 —
实习生招聘
量子位正在招募活动运营实习生,策划执行AI明星公司CEO、高管等参与的线上/线下活动,有机会与AI行业大牛直接交流。工作地点在北京中关村。简历欢迎投递到[email protected]
具体细节,请在量子位公众号(QbitAI)对话界面,回复“实习生”三个字。
量子位 QbitAI · 头条号签约作者
评论