深圳电子展
2024年11月6-8日
深圳国际会展中心(宝安新馆)

不要用人类标准看待机器人或人工智能的任务

如果你在 2017 年看到 DeepMind 开发的人工智能 AlphaGo 击败九段围棋选手李世石(Lee Sedol)时,你会有什么感受?你可能会感到惊讶或害怕,认为人工智能的能力已经超越了人类天才。可尽管如此,赢得像围棋这样具有指数级可能走法的游戏只意味着人工智能已经超越了人类智力的一个非常有限的部分。

我相信很多人都对麻省理工学院仿生机器人实验室开发的 Mini Cheetah 表演的后空翻印象深刻。虽然向后跳跃并降落在地面上对人类来说也很困难,但与需要更复杂的反馈环才能实现稳定行走的算法相比,特定动作的算法已经非常简单了。由此可见,完成对我们来说看似容易的机器人任务,往往很困难和复杂。而之所以出现这样的情况,是因为我们总是倾向于根据人类的标准来考虑任务的难度。

我们往往在观看一个机器人演示后就急于概括出人工智能的所有功能。例如,当我们在街上看到有人在做后空翻时,我们往往会认为这个人擅长走路和跑步,而且还具有足够的灵活性和运动能力,肯定也擅长其他运动。一般来说,我们对这个人的判断并不会出错。

然而,我们是否也可以将这种判断方法应用到机器人上呢?我们很容易根据对特定机器人运动或功能的观察来概括和确定人工智能的性能,就像我们对人类所做的一样。通过观看人工智能研究实验室 OpenAI 的机器人手解魔方的视频,我们认为,既然人工智能可以执行如此复杂的任务,那么它一定可以完成一切比这更简单的任务。但是,我们忽略了这样一个事实:人工智能的神经网络仅针对有限类型的任务(比如解魔法)进行过训练。如果情况发生变化,例如,在操作魔方时将其倒置,那么算法的效果就无法像预期那样好了。

与人工智能不同,人类可以将单个技能结合起来,并将其应用于多项复杂的任务中。一旦我们学会了如何解魔方,即使我们将其倒置,尽管一开始可能会觉得很奇怪,但我们仍然可以快速手解魔方。而对于大多数机器人算法来说,它们需要新的数据或重新编程才能做到这点。此外,自动驾驶汽车需要每种情况的真实数据,而人类司机可以根据预先学习的概念做出理性决定,以应对无数种情况。这些例子让人类智能和机器人算法形成了鲜明的对比:机器人算法无法在数据不足的情况下执行任务。

图片

(来源:HYUNG TAEK YOON)

从古至今,哺乳动物已经连续进化了 6500 多万年。而人类花在学习数学、使用语言和玩游戏上的全部时间加起来也只有 10000 年。换句话说,人类花费了大量时间开发与生存直接相关的能力,例如行走、跑步和使用双手。因此,计算机的计算速度比人类快得多也就不足为奇了,因为它们就是为此目的而开发的。同样,计算机自然也不能像人类那样轻易获得自由使用手脚的能力。因为这些技能是通过 1000 多万年的进化获得的。

这也就是说为什么将机器人或人工智能的性能与动物或人类的能力进行比较是不合理的。如果在观看麻省理工学院的 Cheetah 机器人在田野上奔跑并跳过障碍物的视频之后,就认为像动物一样行走和奔跑的机器人技术已经成熟,那可太过于草率了。许多机器人演示仍然依赖于为有限情况下的特殊任务设置的算法。事实上,研究人员倾向于选择看似困难的演示,因为它可以让观众印象深刻。但是,这种难度的级别是从人类角度来看的,可能与实际算法性能无关。

在进行任何逻辑思考之前,人类很容易受到瞬时和反思性感知的影响。当研究对象非常复杂且难以对其进行逻辑分析时,这种认知偏差就会加强,例如,一个使用机器学习的机器人。

那么,我们人类的认知偏见从何而来呢?在我看来,它来自我们潜意识地将我们看到的对象拟人化的心理倾向。人类已经进化为社会性动物,可能在这个进化过程中发展出了相互理解和共情的能力。而我们将主体拟人化的倾向可能来自相同的进化过程,如人们在提到编程算法时倾向于使用“教学机器人”这个词。可尽管如此,我们还是习惯于使用拟人化的表达方式。正如 18 世纪的哲学家 David Hume 所说,“人类有一种普遍的倾向,认为所有的生命都和他们一样。”

当然,我们不仅将研究主体的外表拟人化,而且将它们的心态也拟人化。例如,当波士顿动力公司发布其工程师脚踢机器人的视频时,许多观众的反应是,“这太残忍了”“同情这个机器人”“总有一天,机器人会报复那个工程师”。实际上,工程师只是在测试机器人的平衡算法。然而,在理解这种情况的任何思维运转之前,粗暴的踢人动作加上像动物一般机器人的挣扎动作瞬间传递到我们的大脑,给我们留下了强烈的印象。如此一来,这种瞬时的拟人化对我们的认知过程产生了深远的影响。

来源:网络