【拓展】百度无人驾驶与#无人驾驶的道德困境#-群蚁学创教育
【拓展】百度无人驾驶与#无人驾驶的道德困境#-群蚁学创教育安彦良和
7月5日消息,百度AI开发者大会现场,正在对Apollo计划进行介绍的陆奇突然将镜头切至场外,百度创始人李彦宏正在驾驶一辆百度和博世一起开发,基于Apollo技术的自动驾驶汽车
完全无人驾驶从技术上来说,百度能完成这一成绩,十分厉害,这方面技术要求很高。目前国内外大多数厂商都是做驾驶辅助这方面,而纯粹的无人驾驶,全世界范围内也不过那么几家。这点值得自豪。
无人驾驶的道德困境
对于”汽车无人驾驶“技术来讲,确实有很大的难度,但是这不是最主要的问题。最重要的是这项技术中有着我们暂时无法解决的哲学问题。”自动驾驶“如果要市场化石崇斗富,就是在一定程度上拷问人类:你们愿意把何种程度的“生杀大权”交给人工智能?
考虑下面的情景:
在高速公路上,你的车被夹住了
假设这个时候,前面的大货车的货物突然松动脱落,汽车没有办法在这么短的时间制动
现在汽车有三种选择:
直接撞上去;
向左撞上一辆SUV;
向右撞上一辆摩托车;
那么郭今秋,狗蛋的博客 自动驾驶的汽车应该怎么选择呢?以你的安全角度出发,撞上那个摩托车?还是以最小化他人伤害,直接撞上去,牺牲掉你?还是折中,撞上SUV?
如果坐在驾驶室的是我们达菲鸭,那么无论我们怎么做,都只能被当做是一种“临场反应”(Reaction)而不是经过思考的“决定”(Decision)。但是如果这个动作是无人驾驶的汽车做出来的,它是在执行编写驾驶“人工智能"的程序员的算法。这里面蕴含的道德暗示就很不一样了---这是一个“决定”(Decision)。这一特征让程序更像是预先编写的谋杀维塔斯星星。
当然交响人生,我们假设自动驾驶技术是可以非常成熟,非常高效率的。这样的技术移走了人类的偏差和限制,从统计学角度,它可以大大降低事故的伤亡---从整个社会角度外星人陈山。但是这样道德模糊的领域(Moral gray zone)依然存在。
“临场反应”(Reaction)和“决定”(Decision)的差别在于”决定“是有意识的行为,有目的的行为(Intention),而目的,能影响他人的行为。
再思考下面的场景:把上面的情景中的SUV换成一个带着头盔的摩托车手,你该如何进行判断呢?如果你说:我的无人驾驶车应该撞那个带头盔的万象更新造句,因为她有更加高的生还几率。那你岂不是在纵容不负责任的不安全行为?
注意,无人驾驶判断策略对人类已知的。参考囚徒的困境,这样的消极影响会迅速遍布整个社会。
如果你说撞那个不带头盔的,因为他不负责任,那么无人驾驶安全的基石--最小化对人的伤害不是违反了么天描?
优化算法没有目标,没有办法编写。而且这样,无人驾驶车岂不是在”私设公堂“?
当然现实生活和我们的思想实验不可能完全一样。这个思想实验的目的在于揭示这样的道德困境:无论程序如何编写自从离别后,其实都是在”歧视“某一类道路人群:这些被”歧视“的人群将承担后果--即使他们没有做错任何事情。
还有对于消费者,你会选择那一种车:永远把你(驾驶员)的安危至于第一位,还是整体(所有被牵涉个体)的安危为首要?还是”随机“要优于”预先选择程式“?根本问题是,那么谁有权利作出这个大选择---让自动驾驶程序”随机选择“还是”按照一定准则“选择?政府?科技公司?研究机构?
文章内容参考于网络
7月5日消息,百度AI开发者大会现场,正在对Apollo计划进行介绍的陆奇突然将镜头切至场外,百度创始人李彦宏正在驾驶一辆百度和博世一起开发,基于Apollo技术的自动驾驶汽车
完全无人驾驶从技术上来说,百度能完成这一成绩,十分厉害,这方面技术要求很高。目前国内外大多数厂商都是做驾驶辅助这方面,而纯粹的无人驾驶,全世界范围内也不过那么几家。这点值得自豪。
无人驾驶的道德困境
对于”汽车无人驾驶“技术来讲,确实有很大的难度,但是这不是最主要的问题。最重要的是这项技术中有着我们暂时无法解决的哲学问题。”自动驾驶“如果要市场化石崇斗富,就是在一定程度上拷问人类:你们愿意把何种程度的“生杀大权”交给人工智能?
考虑下面的情景:
在高速公路上,你的车被夹住了
假设这个时候,前面的大货车的货物突然松动脱落,汽车没有办法在这么短的时间制动
现在汽车有三种选择:
直接撞上去;
向左撞上一辆SUV;
向右撞上一辆摩托车;
那么郭今秋,狗蛋的博客 自动驾驶的汽车应该怎么选择呢?以你的安全角度出发,撞上那个摩托车?还是以最小化他人伤害,直接撞上去,牺牲掉你?还是折中,撞上SUV?
如果坐在驾驶室的是我们达菲鸭,那么无论我们怎么做,都只能被当做是一种“临场反应”(Reaction)而不是经过思考的“决定”(Decision)。但是如果这个动作是无人驾驶的汽车做出来的,它是在执行编写驾驶“人工智能"的程序员的算法。这里面蕴含的道德暗示就很不一样了---这是一个“决定”(Decision)。这一特征让程序更像是预先编写的谋杀维塔斯星星。
当然交响人生,我们假设自动驾驶技术是可以非常成熟,非常高效率的。这样的技术移走了人类的偏差和限制,从统计学角度,它可以大大降低事故的伤亡---从整个社会角度外星人陈山。但是这样道德模糊的领域(Moral gray zone)依然存在。
“临场反应”(Reaction)和“决定”(Decision)的差别在于”决定“是有意识的行为,有目的的行为(Intention),而目的,能影响他人的行为。
再思考下面的场景:把上面的情景中的SUV换成一个带着头盔的摩托车手,你该如何进行判断呢?如果你说:我的无人驾驶车应该撞那个带头盔的万象更新造句,因为她有更加高的生还几率。那你岂不是在纵容不负责任的不安全行为?
注意,无人驾驶判断策略对人类已知的。参考囚徒的困境,这样的消极影响会迅速遍布整个社会。
如果你说撞那个不带头盔的,因为他不负责任,那么无人驾驶安全的基石--最小化对人的伤害不是违反了么天描?
优化算法没有目标,没有办法编写。而且这样,无人驾驶车岂不是在”私设公堂“?
当然现实生活和我们的思想实验不可能完全一样。这个思想实验的目的在于揭示这样的道德困境:无论程序如何编写自从离别后,其实都是在”歧视“某一类道路人群:这些被”歧视“的人群将承担后果--即使他们没有做错任何事情。
还有对于消费者,你会选择那一种车:永远把你(驾驶员)的安危至于第一位,还是整体(所有被牵涉个体)的安危为首要?还是”随机“要优于”预先选择程式“?根本问题是,那么谁有权利作出这个大选择---让自动驾驶程序”随机选择“还是”按照一定准则“选择?政府?科技公司?研究机构?
文章内容参考于网络