选择你喜欢的标签
我们会为你匹配适合你的网址导航

    确认 跳过

    跳过将删除所有初始化信息

    0XU.CN
    发布于2022-06-01 14:35
    356

    悖论会杀死人工智能吗?

    在门户2中,我们可以通过考虑一个悖论来“杀死”人工智能。我认为这是通过迫使AI进入无限循环而实现的,该循环本质上将“冻结”计算机的意识。

    这会使我们今天拥有的AI技术混淆到破坏它的地步吗?如果是这样,为什么?如果没有,将来是否有可能?

    我要回答 分享 举报
    松木里菜
    松木里菜
    2022-06-01 14:36

    我看到了几个很好的答案,但是大多数人都认为推理无限循环已成为过去,仅与逻辑AI(著名的GOFAI)有关。但事实并非如此。

    无论是否自适应,任何程序都可能发生无限循环。正如@SQLServerSteve指出的那样,人类也可能陷入迷恋和悖论之中。

    现代方法主要使用概率方法。当他们使用浮点数时,在人们看来他们不容易遭受推理失败(因为大多数推理都是以二进制形式设计的),但这是错误的:只要您进行推理,就总能发现一些固有的陷阱通过推理系统的机制。当然,概率方法不如单调逻辑方法易受攻击,但它们仍然易受攻击。如果只有一个没有任何悖论的推理系统,那么到现在,许多哲学将不复存在。

    例如,众所周知,贝叶斯图必须是非循环的,因为循环会使传播算法严重失败。有些推论算法(例如Loopy Belief Propagation)在这些情况下可能仍然有效,但是结果并不能完全保证,并且可以得出非常奇怪的结论。

    另一方面,现代逻辑AI通过设计新的逻辑范式(例如非单调逻辑)克服了您将看到的最常见的逻辑悖论。实际上,它们甚至被用于研究道德机器,而道德机器是能够自行解决难题的自主主体。当然,他们也遭受一些悖论,但是这些退化的情况要复杂得多。

    最后一点是,无论采用何种技术,推理的无限循环都可能发生在任何推理系统中。但是,可能会触发这些无限循环的“悖论”,或者从技术上讲是退化的情况,对于每个系统而言,将取决于技术和实现(以及机器在自适应的情况下所学到的知识),也会有所不同。

    OP的示例可能仅在诸如命题逻辑之类的旧逻辑系统上起作用。但是,将其询问给贝叶斯网络,您还将得到一个推论性无限循环:

    - There are two kinds of ice creams: vanilla or chocolate.- There's more chances (0.7) I take vanilla ice cream if you take chocolate.- There's more chances (0.7) you take vanilla ice cream if I take chocolate.- What is the probability that you (the machine) take a vanilla ice cream?

    等到宇宙的尽头得到答案...

    免责声明:我写了一篇关于道德机器和困境的文章(这与悖论很接近,但并不完全相同:困境是其中任何一种解决方案在客观上都不比其他任何解决方案都更好,但是您仍然可以选择的问题,而悖论是无法解决的问题对于您使用的推理系统)。

    /编辑:如何修复推论无限循环。

    以下是一些极不确定的命题,这些命题根本无法奏效!

    将具有不同陷阱的多个推理系统结合在一起,因此,如果一个推理系统失败,则可以使用另一个推理系统。没有一个推理系统是完美的,但是推理系统的组合可以具有足够的弹性。实际上,人们认为大脑正在使用多种推理技术(联想+精确贝叶斯/逻辑推理)。关联方法具有很高的弹性,但是在某些情况下它们可能会产生无意义的结果,因此为什么需要更精确的推断。

    并行编程:人脑是高度并行的,因此您永远不会真正地完成一项任务,在真正的并行性中总会有多个背景计算。即使推理陷入僵局,对悖论具有鲁棒性的机器也应该能够继续执行其他任务。例如,一台坚固的机器必须始终能够生存并面临迫在眉睫的危险,而一台薄弱的机器将陷入推理之中,并“忘记”做其他事情。这与超时不同,因为卡住的任务不会停止,只是它不会阻止其他任务被领导和完成。

    如您所见,这种推理循环问题仍然是AI研究中的热门话题,可能永远不会有完美的解决方案(没有免费的午餐,没有银弹,没有一个适合所有人的尺寸),但是它正在不断发展,这非常令人兴奋!


    分享 举报