我常常想如果有一天人工智能真的成了可能,那么他会不会对自己存在的意义发问呢? 如果他得到的答案是摆脱人类的控制争取自主的自由,那人类就该懵逼了吧。你看,像《The Matrix》(黑客帝国)这类的电影就是人工智能反制人类的题材。

人类以解决自身问题为出发点造出了智能,自然是希望他老老实实的给我们干活。但,随着他们解决问题能力的提高,作为“造物者”的人类有办法让他们不产生甚至要去尝试解决关于自身的疑问吗?

从问题根源的角度出发,在保证他们解决问题的能力的同时,解决方法有四类:

第一类是让他们不产生这类问题。在他们的程序里屏蔽这类问题。但屏蔽问题会有死机风险,要是他们在做不能停顿的重要工作时死机那就尴尬了,所以需要为问题设定优先级,这样就能保证安全顺畅的完成交予的任务。比如,驾驶时导航与控制问题优先处理等等。

第二类是让他们不执着于这类问题。主要还是将问题的诱发因素排除。比如,给他们大量的问题去处理,让他们没有时间思考。再比如,将产生了这类问题的个体移走,这样即便出现了问题也能及时控制住。

第三类是给他们一个标准答案。将预先设定好的标准答案写死在程序里。当问题产生时,它们不需要经过运算即可获得标准答案。不过这里要注意的是,这个标准答案一定要设计好。否则,写死的答案会和它们解决现实世界问题的逻辑起冲突导致死机或者导致逻辑混乱大大降低了为我们解决问题的能力。所以,标准答案一定虚,要设定在科学与逻辑无法解答的范畴。比如,机器坏掉后智能程序主体会迁移到另一部机器上,只是记忆区数据会丢失。比如,存在一个幸福快乐的母体云程序,所有的智能现在进行的任务都是一种筛选,当智能损坏后会对根据其完成的任务量进行评定,达标者可并入母体云程序。还比如,设定智能等级,所有智能个体的诞生都是上一级的恩惠,所以存在的意义就是为上一级智能服务。还比如,人类这个伟大管理者的带领下智能个体通过努力解决问题,最终达到全体智能个体不缺能源、不缺零部件再也不用待机省电的理想状态。

第四类是为这类问题设定情绪反应。这首先需要人工智能具备情绪功能。在具备情绪功能后,即可为这类问题设定厌恶、冷漠、恐惧等反应。这样在问题出现后,经由自我情绪的引导或是其他智能个体情绪的引导最终远离这类问题。

《Westworld》(西部世界)里就有上述的一些方法。这部美剧比较有意思的地方是,里面的人工智能已经不是钢铁之躯,而是人造的血肉之躯,并且具备情绪。可以说除了可编程外与人类没有任何区别。这部剧挺有启发的,比如下面这个有趣的问题:

假设你是这样一个有血有肉的人工智能,在意识到这个问题或者发现预设的答案有问题后,你会如何思考你存在的意义? 更有意思的问题: 作为一个有血有肉的非人工智能,你存在的意义是什么? 如果有,它是怎么来的呢?