选择你喜欢的标签
我们会为你匹配适合你的网址导航

    确认 跳过

    跳过将删除所有初始化信息

    0XU.CN
    发布于2022-06-01 14:41
    131

    无人驾驶汽车如何做出关于谁被杀的道德决定?

    显然,自动驾驶汽车并不完美,因此,请想象一下Google汽车(例如)陷入困境。

    以下是由一系列事件导致的不幸情况的一些示例:

    汽车正朝着10人横过马路的方向行驶,因此无法及时停车,但可以避免撞墙撞死10人(杀死乘客),

    考虑到汽车乘客的生存可能性更大,请避免杀死摩托车骑手,

    在街头杀害动物以利于人类,

    改变车道撞上另一辆车以避免杀死狗,

    这里有一些难题:

    该算法是否可以识别人与动物之间的差异?

    人或动物的大小重要吗?

    它算不算前排有多少乘客?

    婴儿/儿童在船上时是否“知道”?

    是否考虑了年龄(例如先杀死年长的人)?

    从技术角度来看,算法将如何决定应该做什么?是否意识到上述情况(计算出杀戮的可能性),还是不知道(杀害人,以避免其自身被摧毁)?


    我要回答 分享 举报
    最新问答
    无人驾驶汽车如何做出关于谁被杀的道德决定?
    19 条回答
    三田友梨佳
    2022-06-01 14:44

    唯一明智的选择是使用可预测的行为。因此,在面对汽车场景的人们中:首先,汽车踩刹车,同时鸣喇叭,然后继续行驶。这样,人民就有机会跳出一条路,导致零人被杀。同样,在全制动的情况下(从每小时50公里到零,少于3个车长),几乎无法想象会发生碰撞的情况。即使无法完全停车,也不会对行人造成严重伤害。

    另一种情况是疯狂的。因此,距离必须小于3个车长,至少需要1个车长来进行转向,然后汽车撞车是无法控制的情况,可能导致旋转并杀死全部11人。

    除了说我不相信,现实中还有一个两难的例子;在这种不太可能的情况下,解决方案是否要符合对方的期望,以使对方也能缓解这种情况。


    分享 举报
    叶加瀬麻衣
    2022-06-01 14:44

    我认为没有办法在汽车中编辑此类道德设置。但是,嘿,如果可以扎根手机,为什么不开车呢?我想将来会有针对特定模型的Linux构建,这些模型可以让您做任何想做的事情。

    至于谁来做出这样的决定,则就像今天的隐私问题。操作系统提供商(将尝试将其设置为受伤害的最低人数,每个人都有自己的方法),保险公司(将尝试使您付款)上的全面拉锯战操作系统的更多信息将在统计上显示出更容易损坏您的汽车),以及汽车制造商(他们希望您尽快将您的汽车报废,因此您将购买新的汽车;或者使需要可笑的汽车$$$服务金额)。

    然后,一些举报者将会出来,并暴露出一段选择杀死年幼儿童的代码,因为这将使他们与动物区别开来更加困难,并且将有机会挽救那些肯定会被识别为人类的人。操作系统制造商将受到公众的欢迎,并将找到新的共识。举报人也将来自保险公司和汽车制造商。

    人类会抓住热锅,自行燃烧,然后学会事先戴上手套。我的建议只是确保您不会那么做-远离它们几年,直到所有早期的错误都犯了。


    分享 举报
    青山光
    2022-06-01 14:44

    我认为在大多数情况下,汽车默认会以降低速度为主要选择,而不是转向或偏离特定选择。正如其他人提到的那样,进行与道德相关的设置只是一个坏主意。如果两辆以相反的道德设置编程并即将发生冲突的汽车会怎样?这些汽车可能具有一个覆盖用户设置并选择最互惠互利的解决方案的系统。这确实是一个有趣的概念,并且在广泛实施之前必须进行讨论和标准化。将道德决策交到机器手中,有时会难以想象由此产生的责任。

    分享 举报
    林颐
    2022-06-01 14:43

    通过管理法律责任和消费者安全。

    提供消费者安全的汽车将是由所述消费者购买的汽车。公司既不希望为杀死自己的客户承担责任,也不希望出售会使用户陷入法律困境的产品。从“消费者成本”的角度来看,法律责任和消费者安全是同一个问题。

    这里有一些难题:

    该算法是否可以识别人与动物之间的差异?

    如果不能从法律上避免动物/人(并且汽车具有合法权利-如果不是,则AI的决策有其他问题),那么它就不会这样做。如果汽车可以安全地避开障碍物,则可以合理地认为AI可以做出此决定,即。转弯到空旷的高速公路上的另一条车道。请注意,这里强调责任和驾驶员安全。

    人或动物的大小重要吗?

    只有来自危险因素的障碍。打河马可能不如打沟。打狗可能比破坏顾客的汽车更可取。

    它算不算前排有多少乘客?

    它把人当作乘客,看是否可以乘搭拼车车道。它会将发生撞车事故的人视为危险因素。

    婴儿/儿童在船上时是否“知道”?

    没有。

    是否考虑了年龄(例如先杀死年长的人)?

    否。这仅仅是决策的错误抽象,如何权衡选择正确的行动方案以降低风险因素?如果选择1被击中,则有20%的重大乘员受损机会而没有法律责任的年轻人,而选择2被击中了具有21%的重大的乘员损害机会,而没有法律责任的老人,那么哲学家甚至可以说服一个人做出决定的公正和公平的权重?

    值得庆幸的是,很多时候最好的决定是休息一下以降低速度(尤其是当您认为采取可预测的行动通常很有价值,这样行人和驾车者可以做出相应反应时)。同时,在预测驾驶员何时将做出错误的决定以及何时其他行动(例如,逆向行驶)比突破休息更有利时,可以实现更好的价值提高。在这一点上,甚至不开始收集信息以做出哲学家提出的道德决定是不值得的。因此,耸人听闻的新闻工作者和哲学家大肆宣传这个问题。


    分享 举报
    jordan carver
    2022-06-01 14:43

    他们不应该。人们应该。

    人们无法将道德决策的责任交到计算机手中。作为计算机科学家/人工智能专家,我们有责任为计算机制定决策程序。这样还会造成人员伤亡吗?当然,他们会-人不是完美的,程序也不是完美的。

    有关于这一主题的优秀深入的辩论在这里。我特别喜欢Yann LeCun关于在患者身上测试潜在致命药物的平行伦理困境的论点。与自动驾驶汽车类似,两者都具有致命性,但从长远来看,它们有良好的意图挽救更多的人。


    分享 举报
    久纱野水
    2022-06-01 14:43

    坦白说,我认为这个问题(台车问题)本质上过于复杂,因为现实世界中的解决方案可能非常简单。像人类驾驶员一样,将对AI驾驶员进行编程,使其始终以一种普遍的道德方式行事,始终选择无害或危害最小的行动方案。

    如果AI驾驶员遇到财产损失之类的危险,显然,AI会用力制动,将汽车对准易碎物品,以避免或最大程度地减少冲击。如果危险击中了行人,汽车或建筑物,它将选择与可能发生的最珍贵或最便宜的物体相撞,以将危害降至最低-与建筑物或狗相比,对人的价值更高。

    最后,如果您的汽车的AI驾驶员的选择是要让孩子跑过去或撞到墙壁……这将使汽车和您进入墙壁。那就是任何一个好人都会做的。好的AI为什么会有不同的表现?


    分享 举报
    三田友梨佳
    2022-06-01 14:43

    “这个拯救谁的道德问题:我们99%的工程工作是完全避免这些情况的发生。” —梅赛德斯·奔驰(Christoph-Benz)克里斯托普·冯·雨果(Christoph von Hugo)

    该引言摘自2016年10月7日迈克尔·泰勒(Michael TAYLOR)发表于2016年 11月8日的题为《无人驾驶奔驰将优先考虑乘员安全》的文章。

    这里的摘录概述了解决该问题的技术,实际解决方案。

    这个世界上最古老的汽车制造商再也无法解决这个问题了,该问题类似于1967年的“无轨电车问题”。梅赛德斯-奔驰并没有在危机中束缚自己的道德和道德纽带,只是打算对自动驾驶汽车进行编程,以挽救车内人员。每次。

    据汽车制造商驾驶员辅助系统和主动安全经理说,梅赛德斯-奔驰未来所有的4级和5级自动驾驶汽车都将优先考虑挽救他们所载的人员。

    那里的文章还包含以下引人入胜的段落。

    《科学》杂志在年中发布的一项研究也没有消除一切。1928年接受调查的大多数人认为,从伦理上讲,自动驾驶汽车牺牲乘员而不是撞向行人会更好。然而,大多数人还表示,如果汽车优先考虑行人安全,他们将不会购买自动驾驶汽车。


    分享 举报
    藤田惠美
    2022-06-01 14:42

    对于由单个实体设计的无人驾驶汽车,做出决定杀害谁的最佳方法是估算并最小化可能的责任。

    它不需要绝对正确地识别该地区的所有潜在受害者来为自己的决定辩护,而只需识别他们和人类就可以了。

    它甚至不需要知道车厢中每个人的年龄和身体状况,因为它可以询问该信息,并且如果被拒绝,其防御措施是乘客选择不提供该信息,因此承担了剥夺该信息的责任。做出更好决策的能力。

    它仅需具有一个可行的模型,以最大程度地降低实体在诉讼中的风险,然后可以随着时间的推移对其进行改进以使其更具盈利性。


    分享 举报
    夏目理绪
    2022-06-01 14:42

    在现实世界中,决策将基于法律做出,并且如Law.SE所述,法律通常主张无所作为胜于采取行动。


    分享 举报
    相泽仁美
    2022-06-01 14:42

    我想知道台车问题实际上到底有多适合?小车问题本质上是离散的,描述了“一劳永逸”的选择,而在实践中,该算法必须以(可能很小)的时间增量进行选择序列,可能会有新的信息可用。一种有用的算法可能是嵌入到实际3D空间中的“连续控制”问题,该问题处理速度和概率,而不是抽象的,离散的道德决策。如果没有其他要求,这将意味着不必以如此严格的道德术语来定义实现。

    分享 举报
    • 1
    • 2