一幅漫画告诉你,人工智能对人类语言理解到底有多难

人工智能对人类语言的理解可能不是那么简单

abcd(漫画来自网络)

人与人之间的对话,很多时候都不需要讲的很明白(精确),就可以让其他人理解,然而对这一点有着精确要求,“患有强迫症”的机器人来说,太不够严谨,用计算机编程语言写成的人工智能语义算法,可能稍有差池就会发生各种误判或者瘫痪。

 

但这点BUG(错误)对于人类来说可能一点事儿没有,人类的高级就在于可以很智能地明白这些BUG(错误),并可以根据环境等其他因素智能地判别出这个错误想要表达的正确意义。而聊天机器人(chatbot)却不一定能通过串联对话上下文智能修正这些错误,当然了,现在有大数据作为支持的话,可能会部分地解决一些简单的问题,比如你输入关键词“鸟菜”搜索引擎可以根据其自身数据以及算法判别出你可能要搜索“菜鸟”,但是如果让机器人来判断下面这段对话:【领导:“你这是什么意思?”阿呆:“没什么意思,意思意思。” 领导:“你这就不够意思了。”】这是摘自网络的一段笑话,但也是一个值得研究的语义样板,如果让机器人来判断这个“意思”到底是什么意思,该如何做语义分析呢?很可惜,据我所了解的机器人里面还没有这么牛逼的,目前聊天机器人大多数是按照一定的句式(如类似,“你是***吗?”句式,回答是或不是即可)或者匹配关键词(人工导入数据或者依靠大数据分析匹配)来回答人类问题,也正是这样,所以大家在和机器人聊天的时候总感觉语境不对,总是会被机器人带到另一个话题上。

 

就个人对聊天机器人的研究来看,我一共总结出以下三点原因:其一,限于现在的语义算法还不够完美,对人类语言解析的不够全面准确;其二,就是我们在和机器人聊天时,总是按照人类的思维和它交谈,就如同上面漫画所讲,描述问题不够准确(没有按机器人可以理解的句式来表述问题)或者不够详细造成让机器人“理解”为多种情况可能,从而发生误判。就像搜索引擎一样,你用的搜索关键词越多(问题表述越详细),搜索反馈结果越少,那么其结果可能越精确。其三,人类不仅仅可以通过语言来学习,还有其他的感触学习方式,如通过鼻子,嘴巴,耳朵等获取外界数据。而想让一个机器人仅仅靠简单的文字聊天就可以知道一切事物的属性或者根据文字所描述特征做出正确的理解,或者说是对一句话的正确推论这显然还不够。所以机器人的学习不能仅仅靠这些抽象的方式,还应该像人类一样可以感知这个世界,像人一样用手摸物体,用鼻子闻气味,用眼睛看到三维的世界等等,类似的就应该给机器人加装各种如人类一样可以感知世界的各种传感器,比如3D扫描、温度、方向、重力等各种传感器。

 

再者说,人类已经在这个地球上存在了上万年,其建立起来的语言文字知识库何其繁琐、何其庞大。而且时代不同,地域的差异也可能对同一词汇,同一行为方式理解也不同,这对人类语言学习者都是难题,更何况于机器人,找到统一理解某一词汇,甚至可以像人类一样对该词汇进行衍伸理解或发展出新词义的语义算法真的很难!

评论已被关闭。