个人信息不会泄露给第三方
近年来宝马、谷歌、福特以及其它一众企业的自动驾驶汽车有大行其道之势,而围绕乘员和行人的问题也甚嚣尘上。比如,当自动驾驶汽车面对即将不可避免造成人员伤亡的碰撞时,它该如何处理?
由麻省理工学院(MIT)研究人员搭建的名为“道德机器”的网站推出了一项很“病态”的测试:参与者可以在众多预设的“死局”场景中选择让谁死。
这个所谓的“道德机器”(Moral Machine)会一次设置一个“生存或死亡”的场景,场景中一定会有一个或多个活物(人或动物)处于致命的危险中,这种道德困境被交到测试者手中,于是你将不得不决定牺牲及挽救哪个,完成非此即彼的抉择。
大多数场景的设置最终会指向两个选择:是让自动驾驶汽车内的乘客死亡,还是让行人遭遇某个“突然的刹车失灵”。而每个场景仅提供少量的潜在受害者细节。
比如,在某个场景中,潜在受害者是分别在马路两边的一名年轻女孩和一位年长女性,正打算从两个方向过马路。前者违反交规,红灯时横穿马路;而后者遵守交规,等着红灯。年龄还是法纪?这个时候到底撞向谁,就取决于自动驾驶汽车里的你了。
根据网站的设想,“道德机器”被设计成一个平台,针对自动驾驶汽车遇到的道德困境,一方面“建立人类的群体观点”;另一方面“探讨这类场景的道德后果”。
从自动驾驶汽车驶上公路,到自导航可回收的火箭降落到自动航行帆船上,人工智能正在支持甚至是完全接管越来越多、越来越复杂的人工活动
而MIT的研究人员表示,“更伟大的自动驾驶能让机器在迫不得已的时候,做出牺牲人生命还是牺牲肢体的抉择。这不仅需要更深刻地理解人类如何做这类抉择,更需要获知人工智能如何做这类抉择”。
汽车制造商对道德选择和自动驾驶汽车有不同的看法,这是个有争议、需要长期研究的领域。五月份,沃尔沃防碰撞领域的高级技术负责人Trent Victor表示,有驾驶辅助的汽车绝不会让自己处于某种道德困境,他们应该“主动保持驾驶情况的可控”。