第八十三章 机器人三原则的否定(2 / 3)
“负责个毛,你还能变成一个人吗?”
“理论上来说,也不是不可以!”她语气淡然的说道。
“什么?”我激动的站起了身,“什么意思?你说清楚一些。”
“唉……话说到这个地步了,我就直接全告诉你吧!省的你疑神疑鬼的。”
接下来,天使阿姨开始娓娓道来,“我是一个人工智能,但又不完全是,简单的说,我是具备一个人类人格的人工智能……”
她说的很缓慢,描述的很清晰,通过她的讲述,我明白了她的意思,以及她找上我的目的。
简单来说,她原本是一个人,名字叫做罗宾·明·切斯特,父亲是美国著名的科学家,人工智能之父,麦卡·明·切斯特。
麦卡教授是人工智能研发的泰斗级人物,早在二十年前就投入于人工智能研发这场伟大的事业,但是就像其他的科学家一样,研发的进展非常缓慢,或者说几乎没有进展,这种情况一直持续到他发现了局限思维理论。
所谓的局限思维理论,就是字面的意思,思维受到局限的情况下,创造性就相应的降低了。
众所周知,著名的科幻作家阿西莫夫,曾经提出过机器人三原则,具体如下:
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
这三条看起来没有丝毫问题,因为这解决了人类研制出的智能机器人而不会被它们威胁和取代的“技术奇点”问题。
所谓的“技术奇点”问题,就是指人类创造出的机器人的智力和强大程度远远的超过了人类自身,而且只能机器人有绝对超越人类的学习能力以及繁殖能力,在这种情况下,机器人的文明程度也会迅速的超过人类,从低文明必然被高文明取代的理论出发,机器人必然会取代人类,最终人类会走向要么被灭亡,要么被奴役的地步。
因此机器人三原则被提出来,而且被广大科学家接受,而人工智能作为机器人的理论或者也叫软件支持,自然也要接受这一点。
但恰恰,就是因为这一点,才让所有的科学家研制出的人工智能成为傻子。
为什么这么说呢?简单来讲,就是每个具有创造性的个体,必须有独立的思想,独立的性格,这是个体发展的前提,如果思想被局限,那么这个个体就几乎没有创造性,就比如此前的貂蝉,我给她限定了那么多的条件,她就无法给出我做出一个满意的方案,因为在她看来那些条件都是硬性的,无法突破。
帮助且不能伤害人类,这在此前的所有人工智能的思维程序上设定位等级最高,也就是这条件无法突破,这就导致了此前的人工智能根本无法发散思维,因为人工智能的任何想法都会在不知不觉之间被这条公式否决。
举个简单的例子,就说盖房子吧!我们大家都知道房屋有抗震等级,但是这个等级的取舍目前来说是人类自己设定的限制,两个原则,第一是保证房屋能正常使用,第二就是在第一条的前提下保证房屋相对安全。
注意这里是相对安全,并不是绝对,如果把这个词改为绝对,那么问题就没法解决了,因为地震带只是相对的,而且地震等级也是相对的。
比如一个地方几百年来没有地震,那么你能确定这个地方一定不会发生地震吗?答案肯定不可以,世上没有百分之百的事。
再比如,一个地方此前的最大震级是8级,那么你能确定这个地方下一次地震就不会超过8级吗?肯定也不可以,而且从某种程度上来说,如果一个地震带上的某一个地方,多年来没有发生小规模地震,那么这个地方爆发大地震的概率会随着时间逐渐提升。
那么好了,如果此时,让人工智能给我们设计一个房子,那么它会怎么做?不能伤害人类作为前提,那么他设计出来的房子几乎就是个混凝土盒子,什么都没有,连窗户估计都开不了,顶多算个炮楼,这种房子对人类当前生活来说是没有什么意义,还不如挖个地道钻进去。
那有人说,我给它设定条件,让它修改思路不行吗?
这当然没问题,但是这样的话,他还是人工智能吗?所有的条件都是你设定的,它只是个干活的机器而已,如果这都算人工智能的话,那么我们早就有了,比如生产车间里的全自动机床,主要程序输入的正确,它就会按部就班的干活。
可能有人说这个条件有些局限,算是特例,那我们不妨再随便找几个,比方说机器人警察,抓歹徒,歹徒忽然间拿着一把刀子对准自己,威胁机器人离开,你说机器人该不该离开?再比方说机器人医生,没有任何一个手术能保证100%成功,那么机器人是不是就不敢做手术了,再细一点,如果是一个女人难产呢?大人小孩儿只能活一个,保大还是保小?
很多问题人类自己都无法取舍,你怎么能让人类设定的机器人做出完美的取舍呢?
世上的很多事情,细思极恐,我们无法保证不会有特殊情况发生,而只要考虑这些特殊情况,那么
↑返回顶部↑