您的当前位置:首页智能机器人会给人类带来什么?

智能机器人会给人类带来什么?

来源:小侦探旅游网

  现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就不同了。到那时候,科学作家艾萨克·阿西莫夫于1950年在其著作《我,机器人》中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的流行故事就得改写。

  原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带,旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考,什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再给你找个更可口的,说完就自己先逃走了。这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤之别,这也说明自私与智力并不相关。

  机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要训练他绝对服从命令一样。

  机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能量。但是与人类比较起来,其自私的程度会逊色很多。这样估计有几条理由:第一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。第二,人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。例如,生命属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命,“我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个,把各自学到的知识收集到一起;人的头脑不可能和肉体分离,机器人却可以把脑袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”;机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享,所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务完成后把所学的新知识、新经验加入知识库,“我”到此终结。这样可以随时产生,随时消亡的“我”,当然没有太自私的理由。

  所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生,何乐而不为。

因篇幅问题不能全部显示,请点此查看更多更全内容