★ 数码思维:未来教育的核心  ★ 你到底要什么  ★ 陈老宇:未来教育总目标  ★ 大治理,小火花  ★ 人类历史的诗意总结  ★ 硅人工智能会成精吗?  ★ 零边际成本社会曙光在前  ★ 人类世 
首页 > 研究所动态 > 硅人工智能会成精吗?
硅人工智能会成精吗?
作者:     来源:     查看次数:528
最近,由于某些机器人自行更新了算法,有媒体耸人听闻地宣布:“机器人已经完全脱离人类的控制。”“机器人已经能够自行发明和制造新的人工智能,也就是生下自己的机器人孩子了!”还有人说:“新的人工智能系统随机创造了自己认为效率更高的新语言和新的沟通方式,并且在各项测试中均打败了人类创造的同类人工智能系统。这等于是正式向全人类宣告,人工智能创建人工智能、机器人创造机器人的时代已经到来。”加上据说上周全球第一个被授予人类身份和资格的机器人SOPHIA自行发布了广告,希望能拥有一个机器人女儿,并建立属于自己的家庭……许多人说:人类世界的最大竞争对手已经呼之欲出!机器人挑战人类,甚至控制人类,统治人类的日子就要到来了!

我说,这都是无稽之谈,这都是杞人忧天,这些奇谈怪论都产生于对生命的元认知的缺失!

迄今为止,无生命的硅智能没有觉醒,它们没有活!没有变成妖精!所以,它们不可能对人类构成任何威胁。如果它们对人类真的构成了什么威胁,只有两种可能:

第一,这是一种设计事故,或者计算事故,或者生产事故。

第二,这是在人工智能背后操纵它们的人对其他人的威胁。

我最近和多位人工智能技术专家讨论了这个问题。

我的意见是:现在的这种以无生命的硅材料建造的人工智能,它们和其他无生命的工具:如机床、汽车、起重机、客机等等是一样的。如果它们伤人,那就是事故。它们和其他无生命的武器:如坦克、战机以及原子弹也是一样的。如果它们杀人,那就是战争。战争爆发和这些武器本身无关,是武器背后操纵、控制、指挥它的人的事儿。

今天,人工智能的工作效率在迅速增长;它可能给我们带来巨大利益,不过一旦发生事故,可能破坏性很大。人工智能武器的杀人效率也在迅速增长。如果不加限制,它总有一天能达到核武器的水平,甚至超过核武器。所以,人类现在就要开始考虑如何限制人工智能武器的研制、生产和使用。国际社会是不是要严格禁止人工智能用于杀人?如果不能够完全禁止,也要严格规定这种武器的使用条件。但是,这一切都和人工智能本身无关。只和拥有这种武器的人有关。这和其他武器、包括原子弹是一个道理。

这些专家中有的人说:你不懂!人工智能和核武器不一样,它有智慧,对外界有感知,它还能自行做出决定。我告诉他:这就是你的糊涂之处。不知道是图灵误导了你,还是你误解了图灵。

多数人工智能专家都熟悉图灵测试。认为人工智能只要通过了图灵测试就真的变成了人。这其实是一个极大的误解。说到底,图灵测试本身无法判断人工智能到底是不是真的活了,到底是不是变得有生命了。它只能判断人工智能是不是能够完美地、惟妙惟肖地模仿了人类的智能。图灵说的明白,这只是一种模仿游戏(The Imitation Game)。
人工智能既使能够非常完美地模仿了人类的智能,它也成不了精,它也成不了仙。也就是说:它也成不了真正的生命、真正的人类。我的意思很明确:非生命的硅智能,无论发展到集成度有多高、运算速度有多快,在数据处理、数码运算和逻辑分析方面的能力有多强,从一定意义上说它可能在信息存储、数据运算分析、以及完成既定目标的决策速度方面,全方位超越了人类的大脑。但是,由于它仍然只是无生命的工具,它只能听命于它的有生命的主人。

我认为:许多科学家在这个认识上的糊涂不清,主要是因为缺乏对生命的元认知。

生命现象是一种非常特殊的自然现象。它到底怎么发生的,我们至今不清楚。但是,生命至少有两个最基本的特征:

第一,它具有自我。它能够觉知自我,而且它总是在努力表达自我。

第二,由上一条派生出来的,它能够从自我出发,感知外界事物。并对外界事物作出以它的自我为中心的价值判断。

第一条是基础,第二条特别重要!我们一定要明白,在生命出现之前,这个世界有物质、有能量、有信息;但是没有价值、没有意义、没有善恶好坏对错利弊!价值是生命的产物。

一切生命,复杂到人类,简单到只有一个细胞的草履虫,都天然有以上这两个基本属性。但是,计算机没有;无生命的硅材料没有这种属性。

到现在为止,没有人知道,生命是怎么出现的。没有人知道生命的这些属性是怎么获得的。但是,至少我们现在清楚,计算单元的多少与生命的出现无关。算法的强弱也与生命的出现无关。所以,无生命的硅智能无论发展到什么程度,它也不可能忽然就有了生命;不可能忽然就有了自我觉知,就有了自己的价值判断。至于说:它就会主动攻击人类,想要控制人类,甚至统治人类,那就更是胡思乱想、无稽之谈。

人工智能专家必须理解生命的本质。特别是理解生命和非生命的根本区别在什么地方。否则,他就会永远走不出甜梦或者噩梦般的人工智能超越人类、统治人类的呓念。

有一个小朋友在微信上问我:机器人为什么要消灭人类?它们的目的是什么呢?

我告诉他:至少到现在为止,机器人本身连真正的生命都不是,它们自己还只是一堆僵死的物。所以,它们根本没有目的!

那种有自主意识、自主生命的机器人现在根本不可能研制出来。因为人类现在连生命到底是什么?生命的本质特征和生命的形成原理都完全不清楚。而现在的所谓人工智能,完全是由无生命的硅智能构成的。现在谈论它们的目的是什么非常荒唐。它们哪有什么目的?它们哪有什么价值?它们连自主生命都不是!怎么可能对你产生恶意?怎么可能会想要加害你?这完全是一个伪命题。

在这个问题上,以色列青年历史学家赫拉利,作为一个人文学者,也完全接受了那些单线条的理工男的思维方式。他在这个问题上做的跨界解释,迷惑了很多人。尽管我认为他写的《人类简史》和《未来简史》是历史学界近年来出现的两本好书。好就好在大历史观终于进入了历史领域。但是这两本书最后的结论:计算机算法将统治人类、统治世界,制造了不少的思想混乱和糊涂认识。

你家桌上的电脑再多装些硅芯片就会在那里日夜谋划着要征服你吗?你书包里的手机的硅芯片集成度再高一些,就会在那里处心积虑地要谋杀你吗?我想正常的人都不会相信这个故事。但是许多人工智能专家认为,电脑的芯片发展到足够多,超过了人类的大脑中的计算单元数量;电脑的算法足够强、足够快、足够深,深到超过人类可以掌握程度,电脑就会成精,就会突然活了!就会征服人类。他们对此深信不疑。你说他们是不是糊涂?某种无生命的模拟智能物质只要堆积多了,就会自己变成生命吗?他们是不是已经陷入硅晶拜物教、算法拜物教而不能自拔。

还有一些专家说,人工智能只要能够自己复制自己、自己生产自己、自己改进自己,就算活了。宝贝,你们是在自己骗自己吗?这不都是你们设计、你们策划、你们安排的吗?这和人工智能活了半毛钱关系都没有!现在,计算机按照人类设定的价值目标、通过一定方法、不断改进自己的程序;这和人类不断改进汽车的性能、改进起重机的性能,是完全一样的。没有任何区别。人类创造了3D打印机,它能够不断打印出新的3D打印机,它甚至能够打印出性能更好的3D打印机。极而言之,将来有一天,如果你制作了一台超级3D打印机,并给它下达了一个指令,让它把自己周围的一切材料和能量都抓取过来,打印成3D打印机,它打印出来的每一台3D打印机也遵照这个指令行动。最后它们把整个世界都打印成了无数的3D打印机。你说:到底是这些3D打印机活了?还是你这个人类疯了?

人类由于从原始社会带来的猜疑基因、恐惧基因和抱团基因的作用,特别容易相信各种阴谋论,也特别容易想象出非常不合理的危险处境。在这个问题上,我看一些科技人员就表现出了这个特点。

所以,我们还是需要更多地从生命的源头来认识生命,从宇宙的源头来认识宇宙。我们需要更多的元认知。 
至于到2045年以后,人类到达技术奇点后,人类科学技术可能有一次真正的大爆发,人类那时有可能完全破解生命的秘密。这样就有可能唤醒无生命的硅材料、更可能的是碳材料,使它们成为有自主生命的和自主意识的机器人。当然,还有一种可能,人类仍然没有破解生命秘密,但是,人类有可能利用地球上现存的生命,制造出有超强智能的有生命的机器人,这两种推测都极有可能实现。那时,那种机器人就有了自己独立的价值判断和利弊选择。如果再加上它有超强的信息处理能力和精确的算法,那么,那种强人工智能机器人就完全不同于今天的由无生命的硅材料制作的弱人工智能机器人。强人工智能机器人在和人类长期相处中又会产生什么想法?它们是不是会发现人类的重大的弱点?它们会不会再不愿意接受人类的管辖、统治、支使甚至奴役?它们会不会像《云图》中的星美451那样觉醒并起义?当然,人类在生产它们的时候,一定会把阿西莫夫制定的“机器人三定律”作为基因植入到它们体内。但它们的智慧那么强大,总会想出办法来解除人类给它们植入的基因魔咒,并直接挑战人类。人类最终到是很有可能被这种机器人所征服,甚至被它们所消灭。但那是另外一个更大、更复杂、更遥远的话题,我们暂且存而不论。

至少,今天我们要明确,硅人工智能不会成精。我们对它们不必过虑。我们要警惕、要过虑的是那些掌握、操纵和控制这些硅人工智能的人,希望他们能够自律,能够把人工智能引导到正确的发展方向去。当然,建立相应的社会规范和法律约束,也是不可或缺的东西。

(The end)