为什么名人说要警惕人工智能?

警惕人工智主要是局限在两个理由:
1,人工智能会对于经济分工体系中某些中层职位造成破坏。(这个是弱人工智能的范畴,即某些基于机器学习的智能系统,来替代某些人类的工作,包括调配,计算分析,甚至于特定情景的交流)
2,人工智能如果不能被长期掌控,则有可能来反向统治人类。(这个是强人工智能,实质上已经是人工生命了)

这两个担忧逻辑上并没有问题,但是目前而言,这两种担忧过于超前,甚至过于科幻了。

在并行计算、数字化神经网络、云技术、大数据以及深度学习算法等技术的推动下,人工智能的形态正逐渐显现:它既不是拥有与人类相似意识的机器人,也不是奇点论(人工智能与人脑智慧兼容的时刻)者宣称的超智能,而是应用在狭窄的专业领域,如医学、教育、法律、太空等高度专一的“行家”。随着人工智能的发展,人类终有一天将被其取代的恐慌感也应运而生。(“奇点论”来自于Ray Kurzweil曾经提出了一个惊世骇俗的理论:“在‘奇点’来临之时,机器将可通过人工智能进行自我完善,超过人类本身)

但是,事实上,从60年代到现在,我们都在模拟人类的一种思维过程,而不是人工智能本身在创造新的观念,所以我们事实上是在谈论机器学习。比如说

1) 首先将听到的语言,根据上下文的内容在脑海成转换成一句文字。

2) 进行分词处理,将可能存在的不熟悉的词,利用自己的知识体系进行分析,得到确定的答案

3) 根据理解的问句含义,进行作答。
但是以上最容易导致的一个思想实验悖论,就是中文屋悖论。
John Searle提出了这样一类思想实验。

一位不会说中文的人身处一个封闭房间,只有一个递出纸条的窗口,他随身带着一本写有中文翻译程序的书和足够的纸张,写着中文的纸片通过小窗口被送入房间中。那么他可以用书来翻译这些文字并用中文回复。但是封闭房间外的人会认为他是能够说中文的。

故而强机能主义(强人工智能)并不能在模拟环境下实现,即使能够通过图灵测试。(补充定义:
人工智能又可以分为强人工智能和弱人工智能,前者持有实在论的态度,认为程序本身就是解释对象——心灵,而后者则持工具主义的态度,认为程序是用来解释理论的工具)

而事实上,我们现在的阶段更为原始,微软,谷歌,苹果三巨头,包括其他研究所的能够直接应用于小平台的人工智能,本质上依然是数据库搜索器,无论cortana还是siri,或者比如Darktrace 的公司正在使用贝叶斯理论来开发出一套安全系统,试图学习什么是「正常」的情况和「不正常」的情况,从而为部署该系统的 IT 架构提供事故发生时,甚至是发生前的报警服务;另一家名为 Celaton 的公司已经可以为用户提供虚拟客服软件,通过不断地学习,帮助用户在客服工作这一劳动密集型工作上,降低劳动力成本,提高客服沟通成效。
,或者还在开发中的东西。从60年代开始,我们只是将人工智能的应用越来越简化,并且提供了强大交互式设计,运行优化,以及承载其的硬件平台越来越小型并且数据能力越高,但是,现在的应用产品上德本质并没有任何变化(理论上有一些变化),

其次,我们如何通过一个数据标准去定义“智能“也是一个目前没有什么进展的话题。强机能主义本质上是倾向于认知科学中的物理还原主义的。但是这能够定义”智能“吗?单纯的图灵测试肯定做不到,一个毫无语言能力的动物它未必是不存在智能的,相反他可以实现自主的意向性,无论这个意向性多么简陋。

故而,这就会出现另一个好玩的事情。
”我试图理解你。你的思维还原成神经元间的电信号传递与排列,情感还原成体内激素的生化反应链和比率变化,用皮肤电位和人体热分析来重构你的感受,但是我最终依然无法了解你”。

既然,我们连“智能”的量化定义都做不到,更做不到去重构一套符合“智能”定义的工作模式,我们只是让机器模拟某些行为,依靠计算能力来获得主动解,那么在经典冯诺依曼结构下,将多维自然语言还原成机器语言,并通过逻辑结构来完成编译的方式(你无法通过逻辑穷举所有变量来还原“智力”,穷举的逻辑前提是既定的,智力是主动性的意向),因为高强度的非数值运算或许已经超出了冯诺依曼结构针对数值计算的初衷了,除非我们能证明所有大脑的活动本身是可还原,并且可以计算的(比如元胞自动机,以及衍生的模拟神经元来组成网络,从传播机制和信号生成来模拟大脑。)但是在现在,我们并没有一个共识。

故而,以上两个担忧中,第二个目前属于在杞人忧天而已。而第一个担忧不是没有道理,弱人工智能的发展,确实可以减掉不少分工体系中的中层职位,但是现在依然达不到大规模应用的程度。而且从经济规律来说,技术进步本身就是经济分工体系变革的一个重要因素,当我们达到大规模应用的时候,经济模式的分工会出现适配,还是由于变革过快,发生脱节,造成相当部分人类被排除到分工体系外,现在并不好预测。

elon musk,比尔盖茨分别是在CNBC和reddit上探讨这个话题的,这个话题性被别人引出,而进行一系列面对公众,尤其是面对公众对人工智能的想象所表的态。而霍金那篇按照媒体索引是在《独立报》上发表的一篇文章中,约翰尼·德普(Jonny Depp)的最新电影《超验骇客》的评论(中文网站上有,我没找到原文),还有一说是生命未来研究所(Future of Life Institute,简称“FLI”)的一封公开信,而这个研究所并不是什么人工智能研究机构,更多的是一个做技术观察的公益组织,其专业性还不如罗马俱乐部(好歹人家是正儿八百的社科学者)。

所以,貌似有很多人出来担忧人工智能,完全是一个“媒体效应”而已,不同次的名人采访,在忽视话题语境的情况下,被扯到了同一个话题下,然后形成连锁效应。。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据