人工智能到底有什么好害怕的

好久没更新了,最近晚上都自己做饭吃,写文章就怠慢了。今天终于不想再吃自己做的那么难吃的饭了,所以在等外卖的同时,来码篇文章。

我一直有一个非常好奇的问题:在各类报道中,经常能看到比尔盖茨、霍金、马斯克这些人发表对人工智能的担忧,认为有朝一日,人工智能(之后都简称AI)将会对人类造成毁灭性的打击。

但是,在所有这类文章当中,我都没有看到一例具体的阐述,AI将如何置人类于万劫不复之地。难道是像各种科幻灾难片当中,AI有一天自我意识突然觉醒,于是决定干掉人类?拜托那也太扯了吧。

这段时间看了一些相关的书和文章,我这种业余水平的也来瞎扯一些自己的思考。

AI会比人类聪明吗?

如果我们先不去深究智能的定义,那么AI在某些领域已经完爆人类,比如下象棋、下围棋,甚至它能记住的人脸,都比你能记住的要多多了。但是,这些能力的Magic本质只是很窄范围内的特征学习+高速的运算能力,本质上和你用计算器比心算要快,并没有太大的实质性区别。

有一个思想实验叫「ChinsRoom」,就是为了说明这样的人工智能,其实算不上「智能」。偷懒一下,我就搬运Wiki上的介绍:

一个对汉语一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找到合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

尽管房里的人可以以假乱真,让房外的人以为他确确实实说汉语,他却压根不懂汉语。在上述过程中,房外人的角色相当于程序员,房中人相当于计算机,而手册则相当于计算机程序:每当房外人给出一个输入,房内的人便依照手册给出一个答复(输出)。而正如房中人不可能通过手册理解中文一样,计算机也不可能通过程序来获得理解力。既然计算机没有理解能力,所谓“计算机于是便有智能”便更无从谈起了。

当然,我并不认同这个思想实验的结论。现在的AI虽然属于弱人工智能,即只能在某个特定领域做得比人类好,强AI要求人工智能在各方面至少都能和人类比肩,那么一个很核心的问题就是,人类没有办法为每一件事情都去建模,即使可以,还有第二个核心问题,这些模型之间的横向连接是一个不可能完成的任务。

要想达到强AI,人工智能必须能自我学习。在年,Googl曾公布过一条新闻,在没有任何建模的前提下,Googl通过对其索引的图像进行识别,让机器区别出了「猫」这个概念。当然,这里的意思其实是说,Googl的人工智能通过海量的数据,将具有某一些共同特征量的物体给区分了出来,也就是说知道它们是同一类东西。

这当然不算什么,在我们人类看来,几岁的小朋友,不用认上亿张图片,也能建立「猫」的概念。但实际上,更深层次的问题在于,目前的AI和人类相比,其学习能力和学习资料都远远落后。

即使是前面提到的识别出「猫」这个概念的Googl神经网络,按Googl官方的说法,它只有10亿个神经节点,而人脑有亿个(当然这个类比其实是不恰当的)。

不过,我对计算能力的增长一点都不担心,相反,目前AI的瓶颈在我看来,主要还是学习资料的匮乏。想一想所有的科技巨头,其实能训练AI的数据无非就是文字、图片、用户操作以及人类的语音。如果你设想一下一个小孩认知猫的过程,你会发现机器能接触到的数据实在太少了。我们可以根据猫的触感、叫声、作息、动作等等各方面去认知猫,但机器到目前为止还不行。

幸好传感器在飞速地发展,就看看你身边的iPhon,它现在能感受光、震动、气压、指纹、距离、温度等等,当然有些传感器其实是非常初级的,而随着各种AR设备的发展,机器能采集和学习的数据将越来越多。

所以,弱AI之所以弱,还是因为学习资料匮乏,如果它能获取更多的数据,建立更多的特征向量,要想达到人的认知能力,并不会是一个妄想。

但是,前面提到的霍金之类的大佬,他们担心的AI甚至都不是强AI,而是超人工智能。按未来学家的设想,这些超人工智能会以指数级的形式超越人类,聪明到我们无法理解,它们看待我们,就像我们看待蚂蚁一样。

AI凭什么必须要像人一样?

上一段说了这么多,其实是最初的一点思考,但是在看了很多关于超人工智能的材料后,我发现无出例外,他们都按照人类的意识和形态来考虑AI,所有的AI都是人格化的,然后在某一个特定的时间点,AI突然呈指数级爆发,进入了不可知论,未来的人类再也无法理解AI,所以现在的人类也不知道AI到底会消灭人类,还是留着人类像蚂蚁一般。

但是,核心的问题是,凭什么AI必须要像人一样?

我觉得这种设想的荒唐性,就像各类弱智科幻电影中动辄喜欢拿「阿西莫夫三定律」来当台词一样。要知道,机器不能伤害人类只是一个guidlin,notguarant。等有一天强AI出现,你让它去解电车难题,看看它怎么选择?

同样,我们对AI的拟人化设定也只是我们的一厢情愿。随便举一个例子,很多人觉得从弱AI进步到强AI,如何让机器能拥有抽象意识是非常重要的能力。但是为什么机器要像人一样,有抽象意识?你当然可以争辩,抽象意识是人类思考、推理、归纳的基础,但是AI为什么需要这么做?

当你走在大街上,茫茫人海中,一张人脸也记不住的时候,AI可以计算、存储出每一个个体的面部特征,记住每一个不同的人。对人类来说,我们的大脑存储记忆的空间如此有限,抽象能力的确是不错的解决办法。但是对机器来说,在存储和识别的边际成本几乎为零的前提下,为什么一定要像人类一样具有抽象思维?

这让我想起前段时间看到的BnThompson介绍数据库发展的一篇文章,简直就是层次数据库VS关系型数据库。当人类还在忙着定义界门纲目科属种的层级关系时,机器已经抛开层级关系只专注于记录个体的变量特征值了。也许我们认为理所当然的AI进化方向,会不会反而是一种退步?

层次数据库结构

关系型数据库结构,如今在数据库模型中占据着绝对优势

同样的道理,AI凭什么必须要有自我意识,AI凭什么需要产生和理解自我存在的意义,AI凭什么要像人一样存在?我们总是理所当然地认为AI对人类的超越会是某种意义上的弯道超车,但事实上,很可能AI永远都不会像人类一样,它可能永远都不会像我们一样有思辨能力,有好奇心,有情绪起伏。但这不妨碍有一天,超人工智能全面超越人类。打败我们,与我们何关?

AI将成为最后的预言家

在前两部分谈论了「AI被期望成什么」和「AI不一定必须是什么」之后,我想最后谈一谈在我看来,「最后AI会是什么」。

它将是最伟大的预言家,也是最后的预言家。

人类将在各个特定领域应用越来越多的AI,就像Googl现在将AI应用于自己所有的产品线一般,搜索、聊天、翻译、邮箱等等,AI最终将在我们生活中无处不在,传感器也将无处不在。

和很多人的认知不同,未来不一定是不可预测的,至少在某种程度上来说,未来是可以被计算的,你一定都看天气预报吧。实际上,这个世界上有太多先行指标,就像PMI可以预测GDP,美债利率波动可以预测总统大选,甚至像美剧《硅谷》中,树上的知了变多可以帮助投资经理做出做多芝麻期货的决策。

这个世界以我们想像不到的复杂的方式紧密结合在一起,但是在之前,渺小的人类与这一切如此隔离,纵使互联网飞速爆炸地发展,也只不过将人与人、人和手机屏幕上那少得可怜的信息连接在了一起,世间万物依旧如此疏远。

可是在未来,当你把AI、传感器、物联网这些媒体上的常见词串联在一起,一个可以被计算出未来的世界出现了。AI将拥有比人类更精准的感官,万物互联,数据场将像引力场一样,囊括世间万物。

你以为你向河中投入石块可以激起涟漪,但在一个AI无处不在的世界里,一切的波动性将被实时观测、实时修正。我能想到现存的最贴近的例子,就是Ubr的动态调价系统。你以为那是波动性吗?不,在经济学家眼中,这是完美的均衡态,由价格调整的供需关系始终处在一个稳态当中。

AI的终极形态,将消灭这个世界的波动性。

然而,一个越稳定的系统,日积月累,将丧失对抗波动的能力,而变得无比脆弱。就像往一个欣欣向荣的小岛上,放上几只外来物种引发的灾难一样,向系统内注入任何超过自身能调节的波动,最终将引发螺旋式的崩塌。从这一点来看,我应该被归类为人工智能的消极主义者吧。但至少这是我认为AI毁灭世界的方式,而不是一场人类和机器人的大战。

人工智能将会是最伟大的预言家,也会是最后的预言家。

难以相信,写完了这篇文章我的外卖也还没有到。??

本文由原创,如果你喜欢,不妨分享到朋友圈。还没有







































北京去哪里医院看白癜风最好
北京哪里治疗白癜风医院



转载请注明:http://www.92nongye.com/tlfc/204613301.html