一号机器人成功地从洞穴里拿出了电池,但也把炸弹一起带出来了,所以它爆炸了。虽然它完成了“拿出电池”这一指令,但完全没考虑其他事情。
接着,人们在给二号机器人的指令中增加了“考虑行动后果”这个条件。结果,二号机器人在电池前停了下来。因为它担心拿掉炸弹会导致洞顶坍塌或靠得太近会损坏墙壁。它考虑了太多几乎不可能发生的情况,最终什么也做不了。
三号机器人得到的指令是,取出电池,不要考虑与目的无关的事情。结果,三号机器人甚至没能进入洞穴。因为与目的无关的事情无穷无尽,一一排除这些事情需要无限多的时间。
人类很容易想到必须先拆除危险的炸弹,再取出电池。但对AI来说,没有“拆除炸弹”这个指令,它们就想不到这一点。
其实,这个从洞穴里取出电池的问题是AI研究早期阶段提出的问题。现在,AI已经可以在规避炸弹的前提下取出电池了。
然而,这并没有解决机器人无法适当处理意料之外的事这个实质性问题。如果设定好条件和情景,框架问题可以得到解决。但是,要解决所有问题,必须输入大量信息。
人类的“经验”优于AI的“信息量”。
人类的优势在于能处理意料之外的情况。如果一个人面对意料之外的情况就不知所措地停下脚步,其实和早期的AI没什么区别。