写于 2017-11-03 01:03:34| 云顶娱乐平台| 云顶娱乐注册

最近涉及特斯拉汽车的致命事故,同时使用汽车的自动驾驶功能进行自驾车,这引发了人们对该技术是否已准备好供消费者使用的疑问

但更重要的是,它突出了重新考虑人类行为与技术之间关系的必要性自动驾驶汽车改变我们驾驶的方式,我们需要仔细检查这对安全性的影响特斯拉的自动驾驶仪不会使汽车真正自动驾驶和自动驾驶相反,它可以自动驾驶功能,例如转向,速度,制动和避免危险这是一个重要的区别自动驾驶仪为驾驶员提供补充帮助,但不是替代驾驶员在事故发生后的声明中,特斯拉重申自动驾驶仪仍处于测试阶段该声明强调驾驶员必须对车辆负责,并准备接管车辆随时控制特斯拉说Autopilot提高了安全性,有助于避免危险并减少驾驶员的工作量但随着工作量的减少,问题在于驾驶员是否分配了释放的认知资源以维持对自动驾驶仪的监督控制有证据表明人类无法识别何时自动化失败并需要人工干预研究表明我们是可信赖的监管者自动化,倾向于过度依赖被称为自动化偏差,当人们使用自动驾驶仪等自动化时,他们可能会将全部责任委托给自动化而不是继续保持警惕这会减少我们的工作量,但同时也降低了我们识别自动化的能力失败了,表示需要收回手动控制当自动化过度依赖并且出错时,可能会发生自动化偏差这种情况可能发生,因为自动设置不正确错误设置GPS导航会导致您误入歧途这种情况发生在一个驱动程序中谁跟踪了错误设置的GPS跨越几个欧洲国家更悲惨的是,Ko雷恩航空公司的007航班在1983年误入苏联领空时被击落,导致飞行员无人驾驶的所有269架飞机死亡,由于设置不正确,飞机偏离了预定路线自动化将完全按照编程方式工作依赖于拼写检查识别打字错误不会揭示拼写正确的错误单词例如,将“from”错误拼写为“形式”同样,自动化不会意识到我们的意图,有时会违反它们这通常会出现预测文本和移动设备上的自动更正此处过度依赖会导致与网站上记录的一些搞笑后果的误传

该死的自动更正有时自动化会遇到无法处理的情况,因为在特斯拉崩溃中可能会发生GPS导航导致驱动程序失败高速公路改道但未更新地图的过时道路过度依赖自动化可能会加剧问题通过减少态势感知这是特别危险的,因为它限制了我们在出现问题时收回手动控制的能力中国航空公司006航班的机长在发动机故障时离开了自动驾驶仪

一台发动机失去动力导致飞机起飞银行到一边对于飞行员来说不了解,自动驾驶仪通过转向可以在相反的方向上进行补偿它完全按照程序编程要做,保持飞机尽可能水平但这掩盖了问题为了使飞机平整,机长脱离了自动驾驶仪结果完全丧失了控制权,飞机急剧下降并进入了陡峭的下降幸运的是,飞行员能够重新获得控制权,但只有在坠落30,000英尺后自动化做得对,它可以提高性能但研究结果表明,当自动化出错时,性能比没有自动化时更差我们发现困难的任务通常也很难实现自动化在医学中,计算机可以通过在可疑特征上添加提示来帮助放射科医师检测乳房X线照片中的癌症这些系统非常敏感,可识别大多数癌症但在系统错过癌症的情况下,计算机辅助检测的人类读者比没有自动化帮助的读者错过了更多 研究人员指出,人类难以发现的癌症对于计算机来说也难以检测技术开发人员需要考虑的不仅仅是他们的自动化技术他们需要了解自动化如何改变人类行为虽然自动化通常非常可靠,但它有可能使自动化失败开发人员试图通过将人类置于具有最终权威的监督角色来对抗这种风险但是,自动化偏见研究表明,依靠人类作为自动化的备份充满了危险和他们不适合的任务开发人员和监管机构不仅要评估自动化技术本身,也是人类与之互动的方式,特别是在自动化失败的情况下,作为自动化的用户,我们必须保持警惕,随时准备好在出现问题时收回控制权

作者:武钚