开栏的话:
人工智能对人类的社会的影响越来越受到全社会的关注,到底什么是人工智能?人工智能又会怎样影响人类呢?人类是否会成为机器人的奴隶?本次新设的【连载】栏目选取了清华大学人工智能专家茅于杭教授关于人工智能的十篇科普文章,希望能给你推开一扇通向人工智能时代的窗户……
人工智能之一:人工智能的初创时期
现在“人工智能”已经成为大众耳熟能详的名词,尤其是“智能”一词更是贴到许多新产品的名牌上了,什么“智能洗衣机”、“智能空调”、“智能学习机”等等。那么究竟什么是“智能”呢?细想起来,智能也不只是人类有的,一般动物也有一些智能,猫狗也会表演节目,鹦鹉还会“学舌”说话。但是只有人类才是超级发达的智慧型动物。人类脱离原始人,更超脱于其他动物之处首先是发展了说话的本领,地球上先后出现了不同的人种,约定俗成地有了不同的语言,语言可以表达“思想”,可以沟通“信息”,人能给不同的事物取名字,也给自己、他人(父母、兄弟)、乃至各种动物、植物都取名字)这可算是人类智能的初创,这已是经历了数十万年的进化历史。直到四、五千年前,不同地区的人各自又创造了自己的文字,可以把事物、思想,用文字记录下来,有了可追寻的历史记载,人类有了自己的文化积累,人类的智能就得以积累、传授、发展,推进了人类文明的进步。可见,语言文字的运用,是人类智能进步的关键。
要谈到“人工智能”不能不谈到计算机的发明和进步。我国早就发明了算盘,这是人类最早使用的计算工具,文艺复兴时期,西方的聪明人研究制造了许多十进位的机械型的计算机,经过不断改进,一直用到20世纪。
在20世纪40年代,美国加州建造了第一台电子管计算机,用了18000个电子管,有两间教室那么大,运算速度每秒只有300次,耗资100万美元,用穿孔纸带打孔送入数据,也用纸带打孔输出数据,那时的计算机真的就是用来作“计算”的。不能有太多其它用处。上世纪50年代清华大学也曾制作过一台类似的电子管的电子计算机,用了两万多个真空管,占据一间大机房,用大抽风机抽取机房里的热气。但是没过两年,已经出现了半导体晶体管,体积小,耗电极少,于是很快就用半导体晶体管制作计算机,先是“分立元件”的,后是集成电路的,再是大规模集成电路的,在不到十年功夫,翻了好几番。那辛辛苦苦制造的电子管的计算机全被当作垃圾扫地出门了。所以说,人类历史发展到上世纪(20世纪)后期,才有了真正意义上的现代计算机。
可是早期的计算机,是供科学家拿来作计算的,还谈不上用来研究人工智慧。只有当电脑的制作进步,体积愈来愈小,容量愈来愈大之后,才有条件用来研究“人工智能”。有趣的是,我们中国人把计算机也叫做“电脑”,“脑”就是“智慧”。可是外国人没有“electronic brain”(电脑)这个名称。我们说,“电脑”就应该用来模仿人类的智慧,实现“人工智慧”,并且进而可以减轻甚至代替人类的脑力劳动。人工智能的重大意义也逐渐被人们认识到。
既然人类自己的智能是从语言、文字开始的,那么让计算机模仿人类的语言文字功能就应该是人工智能的首要课题。例如,第一,让机器会说人的话(语音合成),第二,能听(懂得)人说的话(语音识别)。第三,能识别人类的文字,识别文字、数字(印刷体的、手写体的,甚至潦草的),第四,能翻译不同国家的文字(机器翻译),这样,机器就能做许多人类的脑力劳动型的工作,就是机器智能了。
现在回想起来,这些技术也就是最近三十多年才发展起来的,最早是从我国改革开放之后开始的。从那时起,我国的科学家开展了语音合成、语音识别、文字识别(图像识别、指纹识别等等)、机器翻译等等课题,三十多年后的现在,多数研究都已经实用化了。例如现在的智能手机,平板电脑都已经将这些研究成果集成进去了。刑警、海关已经把人脸识别、指纹识别技术用上了。指纹识别也用到日常生活的开门、开机器(保险箱等)。
进一步,我们还可以利用这些人工智能技术制造各种智能机器人,可以服务老人、病人,甚至用到儿童、学生的教育方面(已经有了许多实例)。与此同时,我们还应解决衍生的各种社会问题,是否会让一些工人失业了?甚至一些白领人士的工作(如经济师、律师、学校的教师等等)也会被部分代替了。从而引发巨大的社会问题?在18-19世纪曾经发生过的因采用了机器,使工人失去工作而引发的社会问题,会不会在近期更大范围地发生?不过,我们相信,良好的、理性的社会制度是能够很好处理这样的科技社会问题的。
可能,人类开发了智能机器人的士兵,它们会听从主人的命令,不顾死活地冲锋打仗。你该怎样去对付它们呢?或许,你也开发更聪明的机器人士兵去和它们打,战场上是两队机器人在搏斗,不见真人。就只是拼高科技了。现在已有无人机执行作战任务,就可以认为是人工智能在战场上的应用。
一些科幻小说还把人机大战作为主要内容,加以夸张,预想人类要对付机器的袭击。那么,人类是否应该提前做好应对的准备呢?
进一步说,机器是不是会有自己的“主体”意识,它既知道自己是人类创造的,人类会给它传授知识,也可能它自会知道要学习,要增长自己的知识,增加自己的本领,这样一来,智能机器人的智慧真的会超过了人类了?其实计算机下棋,打败了世界最著名的棋手,已经说明了有这种可能。 最后人类自己打不过机器人,人类自己变成了机器人的奴隶。甚至人类被打败了、被消灭了,地球被机器人占领了。人类应该能避免这样的事情发生!相信人工智能的研究不会导致这样的祸害发生。这只不过是说说玩的。
总之,人工智能的研究应该使人类社会更加幸福、安康,使人类社会更顺利地走向大同世界。
人工智能之二:语音合成
人类和其他动物的巨大差异在于“智能”,语言就是人类最早脱离一般动物而成为灵长类动物的最重要的特征之一。大多数动物都会鸣叫(鸟类)或吼叫(哺乳动物),动物的发音只能传递简单的信息(例如可以表示“这里有危险了!快逃!”或这里有食物啦,快来吧!)但这不能称为语言。而人能用语言表达的信息就可以是非常丰富和复杂的。人类从“类人猿”逐渐进化为“智人”的过程就是语言功能逐渐形成和丰富的过程,也就是说,人类的语言是随着人类的智能化(进化)过程同步发展起来的。人脑将不同自然物(天、地、树木、老虎、牛、马、爸爸、妈妈、自己,等等)起不同的名字,以声音来表示,存在脑子里,进而对不同的活动,如:跑,跳,吃等等,乃至:看、听、睡、打猎、唱歌等等,也用不同的发音来表示这些动词,词汇量也积累得愈来愈多。并且在同类人群中“取得了共识”,就能用语言进行互相交流。那么人的口腔究竟能发多少种声音呢?要用多少语音元素来表示无限多的客观世界呢?其实,不用很多。从世界上不同语言的声音符号看,汉语的拼音符号数总共35个,英语的音标数、也不过50个。不同声音符号又组成了不同的词组,人类文字组成的词汇量就达到三万到五万之数。
人类自身的智能化进步首先表现在:一、人会说话了,就是用语言来互相沟通,二、人类又发明了文字(不是“画”的图形,而是“写”的文字)文字具有记载语言的功能,古代人的文字和图画有些存留在岩壁上,可供现代人研究,而古代人说话的语音是不可能保存下来的。但是我们可以猜想得到:文字是出现在语言之后,人类是先有语言(有好几万年了),后有文字(才几千年)。可是,用计算机研究人类的语言、文字,是先有文字处理,后有语音处理,语音处理则是先有语音合成,后有语音识别,前者稍容易些,后者更难一些。
到如今,发展“人工智能”就是要,一、让机器发出人类的语音,这就是把存在电脑里的文字转换成语音播放出来,这就是语音合成。二、要让机器听懂人类的语音:人对着机器说话,机器能把语音听懂,变成文字存放起来,这就是语音识别。“智能机器人”就必须同时具备这两种完全不同的本领。
人工智能是如何实现“听懂人说的话”和如何“说出人的话”。这是两种完全不同的技术,但是有一些共同的技术基础。为此我们先从数学物理来分析人类语言的组成:如果用示波器观察人类的语音波形,就会发现它不是简单的、重复的正弦波,而是非常复杂的变化的波形。如果用谐波分析来看人类的语音,就会知道,它的每个发音(一个音节)都可以分解为一个前音和一个后音,前音相当声母,声学上属于“噪声”的特征。后音相当韵母,具有周期性重复的特征。韵母又可以分为简单韵母和复合韵母,复合韵母相当于是几个单韵母的合成。有几个声母也可以分为简单声母和复合声母(如z、c、s和zh、ch、sh)。直观地想,我们是不是只要做出所有声母的波形和所有韵母的波形,然后像汉语拼音那样两两相拼组合,就能拼出每个音节,再把不同音节链接起来也就能组成人类的语音了。
不错,一开始,我们就是这样做的。汉语语音的每一个字都是一个音节,声母在前,韵母在后,如果我们把21个声母和35个韵母的波形数据(总共56组数据,如果还要分四声和“轻声”,每个韵母还要加四、五倍的数据量,)把每个汉语文字所对应的声、韵(韵还分不同调)接连起来,送到扬声器去,就能读出每个汉字的语音,再把一连串文字所对应的音节组合起来,送到扬声器发出声音来就成了语句完整的语音了。当然,在此之前,先要编好词典,标好每个单字和词组的发音符号(用汉语拼音符号就可以了。)有些多音字也要在词组中区分。
可是早期的计算机内存容量很有限(大约只有1兆字节),而语音数据如果按每秒十个数据组存储,就会有几十、几百兆的数据量,那时的计算机存储器里是放不下的,所以最早研究语音合成必须用采用数据压缩的方法把数据量大大压缩。
为此,我们开始做语音合成是采用了上世纪80年代美国莫托罗拉公司生产的语音压缩的芯片(芯片只有一个指甲盖那么大)公司还提供数据压缩和解压缩软件,我们制成了汉语语音合成插件板,(有一个手掌那么大)插在PC机的扩展槽里,只要机器里先配置了汉字操作系统,再运行一下语音驱动程序,就把一台普通PC机变成了会说人话的智能工具。(用类似的方法也可以实现说任何一种外国语。)这就是当年我们发明“盲人计算机”所用的关键技术。会说话的计算机不仅对盲人有用,对于“哑巴”,也是有用的,因为他们可以有说话的工具了。
1992年,我们把“盲人计算机”拿到北京市盲人学校去表演,盲校老师韩萍组织了四名盲生试用,很成功,后来联系IBM公司捐助了十台PC机,配上我们的语音版,给盲生开设了电脑课,此后盲用计算机就在全国盲校推广了。
当计算机的存储量无限地扩大后,数据压缩的必要性就不必要了,而且模拟的语音逼真度也提高了。上世纪80年代所有做语音合成时所做的压缩数据的种种努力现在都是多余的了。但其他技术(如声母和韵母的拼接等)还必须使用,并且得更加精细了。以前我们听到过,机器人说话声音很死板,一个字一个字蹦出来的,现在听到的机器人说话几乎和真人一样,分不出是真人说话还是机器合成的语音。机器合成的语音、语调、抑扬顿挫,跟真人几乎没有差别,语音质量就此不断提高,这有多少研究人员花费了心血才有了这么大的进步。现在机器会说话已经不稀奇了,进而要让机器人开口说话也是易如反掌的事了。就是人工智能中所用《语音合成》技术的发展从无到有,从粗到细的全过程。
说明,当年在清华大学自动化系信息教研组一起研制语音合成的主要有张国贞老师和李莲、杨雪辰等多位同学和研究生。
人工智能之三:语音识别
语音识别是人工智能的一项十分有趣的问题,想想看,人们的语音是多么复杂,不同国家、民族的人,说不同的国家和民族的语言,不同的人,口音不一样,例如中国还有许多方言,语音也不一样。一个本事大的人,可能懂七、八种语言,也能听懂男、女、小孩等等不同人、甚至不同方言的语言。但是要设计一个机器人能听懂七八种语言,甚至乡土的方言(例如在民航的接待处服务的机器人),这任务是十分困难的。但是我们可以期待,也许不久的将来就会实现。
再说,要在一篇科普文章中说清语音识别的技术,也有很大的难度。因为它用到了高等数学中的傅里叶变换的技术。也就是要用到“时域”和“频域”的两个概念,才容易讲清楚。那么什么是频域、什么是时域?也需要花点笔墨来介绍。
简单地讲,例如50周波的正弦波,在时域的图像上表示是一个连续上下波动的曲线,如果转换到“频域”,就是在频率轴(横轴)上的50处一个有幅度的点这不是很简单吗!
在上一篇“语音合成”一文中,已经介绍了人类语音的一些特征(例如说声母是相当于高频的噪声、韵母相当于周期重复的非规则波,声调是韵母的声高(频率)有变化的波等等),这是语音的时域形态。我们也说过,如果用示波器观看一般人说话的语音波形,是十分复杂,要研究它简直无从下手。但是经傅里叶转换到频域,就发现图形要简单得多了,语音波的频率表现在若干个频率点上有数值。比如男声低些,女声要高一些。小孩子的声频更高些。除此之外,在更高的频率域处有数值,那是噪声域,相当于声母的部分,而在较低的频率点上也有一组数值,是韵母域,这些都表示的是不同说话人的口腔参数,不同人的口型、舌头形状不一样,这组参数也不一样。所以,在频域分析语音:是声母、韵母、是几声调、是什么人说的等等,就容易多了。也由此可以想到,人的天赋智能具备了多么复杂的本领,我们的脑子里事先已经存储好了各种模板数据(属于频域数据,)包括各个汉字的读音、某些已认识人的声音特征数据,甚至风声、雨声、鸟的鸣叫声等等,因此,人就能判别任何时间听到的声音是什么声音、代表什么文字,这种人所具备的智能也是几千万年人类进化而得来的。
设计机器的语音识别,先要在计算机里先存放好标准的语音参数,称为“模板”(如果要将识别的语音转换成文字,计算机里也先存放好了所有汉字的语音参数(可能还分男声和女声的数据库,存储的数据是对应某种语音的频域参数,不可能是时域的波形),这个数据库的建立也可称为机器的训练过程。实际操作语音识别时,由麦克风读入待识别的语音,将输入数据先转换成频域数据,再和标准数据作比较,取参数最接近的作为识别结果,再输出,输出的是汉字(或某一国家的文字。)语音转换成文字还有一个同音字区分的问题,大多数汉语的一个读音对应多个汉字,有的发音对应许多个汉字,甚至上百个汉字(如音节“ji”对应的汉字有100多个)要去分辨某个发音是什么汉字,必须采用上下文的办法,就是看这个读音的前或后跟随的是什么汉字(或读音),是否能组成词。这些词组都事先在计算机中存好,经由匹配对比成功的词来决定该选定的汉字,有时候不是任何读音都可能找到能匹配的上下文,就可能要从语义来判断。这就更复杂了。
如果要设计的系统是要寻找说话人是谁,而不是关于具体说的什么,那就只要对比频域参数就可以了。同样一句话,不同人说的,波形不同,频域中的特征数据也不同。
平时我们的耳朵听取外界的声音有很强的滤波功能,在噪声很大的情况下能滤除噪音,辩认出需要声音(如语音)。聋人用的助听器,如果仅仅是把声波放大,就会连同噪声一起放大,听起来十分费劲。高级助听器就有滤除噪音的功能,因而售价就很贵了,因为其中也用了信号处理技术。
顺便说一个故事,是说明傅里叶变换、信号处理的本领的。这是上世纪80年代初,美国麻省理工学院的奥本海姆教授来清华讲学(我曾担任他的讲课翻译)演示过的一段语音处理的片段:
一段帕瓦罗蒂的演唱,有场面庞大的乐队伴奏,当然很好听。奥本海姆教授演示用了信号处理技术,竟然可以把乐队伴奏的声音全部过滤掉,只剩下了帕瓦罗蒂的唱声,这就可以单独欣赏他的纯真的歌声,这里面用到了复杂的滤波技术完全是傅里叶变换的功劳。(他的歌唱频谱范围和乐队演奏声音的频谱范围是不同的。将频域里的乐队声的频谱信号删除,再还原到时域就只剩下了人的歌唱声了。)可见,信号处理的本领之大了。
语音识别技术经过最近几十年的研究发展,已经十分成熟,能听人语音发出命令而做事的机器人本领也愈来愈大了。我们清华人在其中作了贡献,也值得自豪!
人工智能之四:机器翻译
人类的语言、文字,千千万万,不同语言的人之间,不懂得对方语言,一般是很难交流的。如果靠第三者,懂得两种语言的人来当翻译,这也很麻烦。任何人懂得非母语的第二种语言一般是要经过很长时间的专门学习,还要经过种种考试、取得资格。如果语言翻译能用机器来做,就可以省掉这些麻烦。那么机器翻译能做到了吗?不错,现在已经有了很大的进步,例如英翻中、中翻英就比较容易做到了,但其他语言就不一定行。我们希望将来的手机能有无限翻译的本领,如果你有了这样功能的手机,到任何一个外国,你可以问话,别人听不懂,你就对手机讲话,手机就能翻成当地语言,解决问题了。但是世界上语言千千万万,要把很多语言的翻译都装进一台机器里,不是不可能,而是有没有必要。这里说的是语音翻译,肯定先要进行语音识别。把语音变成文字。机器再进行文字翻译,如果要输出语音,就要再经过语音合成、再输出。又比如是一张纸面的文字,可以先拍个照,进行文字识别,再做翻译,这些例举的多种人工智能课题,小部分已经实现,其他将来也可能实现。我们正处在人工智能发展的鼎盛时期。
作为人工智能之一的“机器翻译”也是上世纪80年代才开始研究的。其实这项任务很不简单,如果你以为,机器里存放一个双语字典,查到原词,就能找到对应的另一种词。一句话、一篇文章,逐字查找对应词,就成了吗?其实,这样“翻译”出来的文字是“惨不忍读”的!
原来除了词汇的不同,人类不同语言还有不同的语法、词法,是非常复杂的。比如日语,它用了许多汉字,任何没学过日语的中国人拿起一篇日语文章,粗一看,也能看懂几个字,其实是不知所云,仔细分析,原来日语有一套和汉语完全不同的语法,加上几十个“假名”组成许多实词或助词。它每句话必然是按主语、宾语、谓语排列的(谓语在最后)。而且主语、宾语后必跟有一个助词,谓语后还跟着几个表示时态的假名助词。它的汉字解释也跟汉语不一样(例如日语中“勉强”一词是“学习”的意思)。比较起来,汉语是世界上最简洁的文字,汉语动词的过去时不在原词上作变化,只在句尾加“了”字,如“我吃了”,
“就”字表示将来时,“我就去”表示“将要”去(将来时)。“已经”表示过去完成时,如“我已经读过了”。
要说到俄语,更令人头疼了,一个名词有12种“格”的变化(六种单数加六种复数),动词要变位,在你、我、他,我们、你们、他们,后面跟着的动词都不一样,过去时和现在时也不一样。你想,烦不烦。西方国家大多数用拉丁字母,可是语言文字很不一样,英语的语法相对简单些,但我们读英语要念许多语法规则,够头疼的了,而其他西方语言都更复杂,比如说,大多数西方语言动词有变态都有词尾的变化,跟在我、我们、你、你们、他、他们(她、她们)后面的动词要变位。所以,你想要做好一个机器翻译系统,要准确遵守这些语法规则不是件简单的事。
80年代,“机器翻译”是初创时期,我们开始做英-汉翻译,首先一部完整的双语字典是必要的,这就要花费了巨大的人力来建立字典库,为机器翻译用的字典不同于普通词典,还应增加一些语义、上下文规则,一个词条很可能有多个解释,不应该总是选第一个解释,什么情况用第二、第三个解释,就要根据不同的上下文的词义来决定。所以说,就是要建立一个适合于机器翻译用的字典是非常复杂的,这比了仅仅编一本普通字典要复杂得多。再比如说,英语“a book”,一本书,翻成中文时必须加量词“本”,可是中文的量词少说也有40-50种,那么要一本翻译用的双语字典,必须将所有中文名词是用什么量词的信息标注出来,这难道不是一项十分繁琐的工作吗?后来我们知道了,科学院语言所组织了庞大的队伍在进行机器翻译的工作,光是输入字典数据的操作员就有好几十人,坐满了一间大房间。我们小小的自动化系《语言文字信息处理研究中心》是没有能力去这样做的。
我们知道,英语等大多数西方语言是分词有空格连写的,而汉语句子是字、词连写,直到句子完了才有标点符号,结束一个句子,例如一句话:“我今天早晨去饭厅吃早饭。”翻译成外语时,先要切分为:“我 今天 早晨 去 饭厅 吃 早饭 。”变成七个单词,然后逐个进行翻译。遇到一词多义和切分有歧义时,要分辨多疑、排除歧义更是十分复杂的事,在此不一一细讲了。
我们自动化系于上世纪80-90年代先后有二十多位硕士生和两位博士生作了机器翻译的实践,做过的题目有英汉、汉英、日汉、法汉、葡汉等。90年代的数码相机已经有很好的性能,有一位研究生就选题“能翻译的数码相机”的
题目,让数码相机对准汉字拍照,进行翻译成英语,实现了机器翻译。我们可以期望,今后的智能手机上能有更多的翻译功能,当然还有待更多的研究和集成。
机器翻译肯定还会和语音识别和语音合成结合起来,可以实现更复杂的智能机器,将来的机器人能听懂某种语言,又能翻译成另一种语言输出可以服务于海关、机场、宾馆、商店等等。
“没有做不到的,只有想不到的”。我们可以期待,更完善、功能更强的人工智能机器就会陆续不断地出现在我们的周围,甚至服务到我们的家庭。
人工智能之五:智能机器人
机器都是人造的。那么人能不能制造出像人一样有智能的机器呢?
有人说,有了,现在不是已经有了机器人吗?能走路,能翻跟斗。是的,但是能走路,能翻跟斗的机器人如果不会听懂人说话,按人发的命令做事,那只是一部机器,不是“智能机器”。所以要说是“智能机器”就必须听懂人发给他的命令,并且去执行命令它做的事。如果你靠敲键盘发命令让一部机器去做某些事,那也不算是智能机器,所以,关键的是“智能”。“智能”必须是体现在能识别人的语言和文字、以及一些图像信息,具有听、说、做的本领,才是“智能”。 那么,现在已经有了这种机器吗?大概还没有,将来呢?肯定会有。能不能做出这样的机器呢?肯定能。其实,前四篇讨论人工智能的小文已经说明了,人工智能达到的技术已经相当成熟,把这些技术集成起来,落实到适当的机器上就可以了。
先问一下,将来做成的智能机器人能跟真人一样吗?能听懂人对它说的话,还会去执行命令它要做的事。比如说“给我倒杯水来”,它就把水给你送来,进一步如果说:“给我捶捶背”,它就给你捶背了。“敲轻点”,它就敲轻点;“敲重点”,它就敲重点。更复杂一些的,例如有人敲门,命令它“去开门”,它就去把门打开。如果你先说:“先看看是谁”,它就应该到门口看看是谁,这时它应该知道把来客的面容和自己存储的熟人库的图像对比,(人脸识别技术现在已经十分成熟)如果是认识的人,就给主人讲:是“XX先生,请他进来吧。”如果是陌生人,就对客人说:“您是谁?有什么事?”等等。可能还有更多的对话。它可以向主人报告。
这样的智能机器人应该有行走的功能,或是滚轮(没有台阶的地)、或是能一步一步抬腿走的(甚至能爬楼梯)。它还有“手”,能拿东西,再加上各种“人工智能”的本领。设计这样的智能机器肯定很有必要,也是很复杂的工作,应该说,实现这些技术现在都已经没有问题了。关键是把它“耳朵”听到的,和“眼睛”看到的各种信息综合理解之后作出正确的判断,再利用自己的“手”、“脚”去完成该完成的任务。
躺在病床上的老人如果了这样的机器人来伺候,就可以不必雇人了。除了倒水、拿东西之类,还可以做更多的事情,老人如果想听音乐,就可以对机器人说“给我放一段贝多芬第九交响乐”,音乐声就出来了。老人如果想知道当天的新闻,也可以对机器人说“给我讲点今天的新闻”,其实这些都是已有成熟的技术,集成起来就可以了。很明显,智能机器人还可以跟无线网连起来,和“百度”或Google联系起来,或者说,它也包含了所有智能手机的功能,又加上了“手”和“脚”去执行拿东西和走路或的命令。
下面讨论一个更现实的课题:智能机器人士兵,能听从人的命令去冲锋陷阵,杀伤敌人。机器人士兵也可能会牺牲在战场上,但避免了有生命的士兵的牺牲,这还是值得的。如果打仗的双方都用机器人,那就看哪方面的机器人做得更聪明、机灵,就能“压敌制胜”打胜仗了。当然,指挥智能机器人打仗的还是真人,这又有一套人指挥机器人的技术。
说到打仗,又可转到“对弈”,也就是下棋。最近有消息说,人机对弈,人被机器打败了。可见机器是可以战胜人的,人创造的人工智能能战胜人自己。这就引出了一个新问题了:将来的智能机器把人都打败了,智能机器人就会统治世界了,人可能变成机器的奴隶了。那么机器人会有那样的野心吗?人把自己的贪得无厌心里也教给了机器人,岂不就会造成机器人统治世界的结果了吗!许多科幻小说就是这么写的。这也让人反省;人为什么要贪得无厌?教会了机器人也贪得无厌,反过来把人害了。
现在人们还是更关注如何设计智能机器能帮助人类减轻劳累,提高工作效率。将来的智能机器会取代许多人类的工作,此前非智能的机器已经使许多蓝领工人失去了工作,将来的智能机器会让许多白领人员也失去工作,像律师、经济师一类的工作会让机器取代了。那么教师、医生一类的工作也可以大部分让机器人来做。(现在许多外科手术已经让机器帮忙了)又如幼儿园里的保育员的工作,教孩子唱歌、跳舞等等都可以让机器人来做。小学、中学、大学的许多教学工作都可以让机器帮忙,由此引发出一连串的社会问题,怎样处理?怎样解决?
这些问题已经大大超出了我们原本讨论的智能机器人的范围,但这将是人类社会发展会遇到的问题。也就是人工智能学科给我们提出的一个大课题。不仅是我们老百姓茶余饭后的话题,也是政治家们应思考的问题。
人工智能之六:专家系统
人生了病,要去看医生,医生就问你:怎么不好了?回答:感冒,头疼。医生又问:发烧吗?回答:“37.4度”,再问“几天啦?”,“昨天下午着的凉。”医生就给他开处方:感冒清肺丸,一盒。如此等等。
那么,这样的医生看病过程能用智能机器人来代替吗?当然可以,不同人会生各种各样的病,病情有的会很复杂的,例如,有咳血的,就要去照片子、验痰;再复杂的,就要去照CT等等,那么不管多复杂,总有对策,这样的看病、开方过程应该可以让最好的专家医生来训练。这样就能做出最好的看病系统,就是医生的“专家系统”。
设计这样的专家系统,其实并不难。比如我们去一家大医院(协和、北医等等,)我们先用录音、录像在各科室录像记下不同科室,各位医生看病的过程,加以编辑、整理,这是设计专家系统的学习过程,积累够多的资料之后,再适当做深入的编辑整理,就可以做成这样的机器看病的人工智能专家系统。其实,真正制作这个系统的同时,也可检验不同医生看病结果的不同点,比较出,哪位医生的治病过程是更合理的,哪些医生是水平较低的,可以督促他学习改进,如果是马马虎虎、不负责任的,就可以给以警告,做进一步的培训。有了这样的系统,各医院领导就可以对各个医生的工作水平、态度等能有根据,合理地做出考评。我们不是经常听说,有些病人,半夜去某医院排队,300元钱挂个专家号,等到真正看病时,医生只问了两句话,就开了处方把病人打发走了。这就应该对这样的医生做出考评,或是取消“专家号”资格。但是医院领导没有这样的监视系统就没法做出决定。
医生马虎,甚至误诊,就使医患矛盾的频发事件。各医院如果添置这样的监视装置就可以监察医生是否尽职,病人是否无理取闹,从而客观而有效地处理这类医患事件。
由此我们可以利用医生看病过程的记录,整理出完整的医学教科资料,作为医学院校的教学材料。这也是积累专家系统原始数据所必须的。
类似的专家系统还可以有很多,例如律师事务(处理家庭纠纷、财务纠纷、刑事纠纷等等)、房地产事务、婚姻事务等等,都可以用建立相应的专家系统,用来辅助、甚至全面地处理相应的事务。
设计相应的专家系统先要先设计一个学习系统,通过积累许多实例的学习才能用来制作专家系统。有了这样的专家系统,也可以让普通老百姓
自己家里利用,有了什么不舒服的小病,打开电脑上网一查,就能基本上解决问题了。
其实大多数大学的课程也可以用这样的专家系统来解决。深奥的科学技术,就请相应的教授、专家来建立这样的课程系列,这样就使任何人想学任何课程都没有障碍了。那么中学的课程、甚至小学的课程是不是也可以这样进行呢?原则上讲更应该没有问题。所以我们可以认为,所有教育问题,都可以依这样原理来设计相应的专家系统来进行,这样既提高了水平,又提高了效率。
通过以上的讨论,我们可以认为,现在正是研究和开发此类专家系统的好时机,值得投入很多人力、财力去研发各种不同的专家系统。
有人担心,这样的专家系统多了,是不是会抢了许多专业人员的饭碗了呢?
这个问题有点像18-19世纪因大量采用机器代替了普通工人而造成许多蓝领工人失业的社会问题,因智能机器的推广也会造成未来的白领员工的失业。
这个问题,应该这样看:人类的技术发展是无止境的,也是不可逆转的。人工智能会代替许多人类自身的劳动,包括智力劳动,因此总起来看,人类会享受更多的自由、休闲和快乐。想想,从前中国人只有春节、端午、中秋三个节日,民国以后,采用星期制,每星期星期天休息一天,上世纪70年代,我国跟进世界潮流,每周休息两天了,今后工作日(或工作时间)肯定还会减少,而人们的平均工资不会因此而减少,反而是愈来愈提高,有什么可操心的!
我们现在应该不失时机地赶紧开展研究多方面的人工智能-专家系统,这是利国利民的重大事业,投入少而收益大的事业。如果政府顾不上,希望民间团体,甚至个体户,先就一、两个小的项目做起来,逐渐推广到更多领域、更广范围。这项技术真正得到推广而实现了,我们国家的面貌也会产生巨大变化。我们期待着。
人工智能之七:自动驾驶
据统计,全世界每天都有八亿辆汽车在马路上跑。据预测,每年新销售的汽车达1.5亿辆,报废的车没有这么多,所以全世界运行的汽车总量还在不断增加,何况我们“发展中国家”,汽车的拥有量还会增加得更快。
现在的汽车都是有人操作的,学会开汽车一般要经过驾校训练、考试合格后,才能领取驾驶执照;上路也要经过先有专业驾校老师陪同训练一段时间后,才能独立上路。这个过程是免不了的。你不能期望,有了自动驾驶系统,你就不必上驾校学开车了。
驾驶汽车必须注意力集中,稍不留神就容易出事故,不是自己的车碰坏了,就是撞了人,还可能自己受伤了,引起了大麻烦。那么如果采用了自动驾驶,是不是能更安全了呢?应该是,但没法证明。至少现在还没有那个国家准许无人驾驶的汽车上路。这说明,“自动驾驶”技术还没有达到人驾驶的水平。至少交通运输的主管部门还不认可自动驾驶会比有人驾驶可靠。
世界各个大汽车公司都已研究自动驾驶多年,有的公司声称已经有了成熟的自动驾驶系统,但是为什么交通运输主管部门不敢批准无人驾驶汽车上路?因为还没法证明:机器自动驾驶会比人驾驶更安全、更可靠。开了自动驾驶的汽车,万一出了事故,是驾驶员的责任,还是自动驾驶系统的责任?出售自动驾驶系统的公司还负责赔偿吗?官司就打不清了。
要是你在马路上看见一辆没人驾驶的汽车向你这边开来,你会不感到害怕吗?至少到现在,无法想象:竟然有一天,马路上跑的汽车会是没有人在驾驶的。
其实,无人驾驶技术在飞机上早已实现了。不用说,众所周知的“无人机”就是没人驾驶的飞机。
其实普通的民航机,驾驶员也不是老坐在那里“开飞机”的,只要给定目标和驾驶参数,自动驾驶系统就能维持飞机长时间的正常的飞行。可以想象,飞机的起飞,操作比较简单,容易实现自动驾驶。但是飞机下降,技术要复杂得多,可能驾驶员也不放心完全交给自动化系统去操作。
据说,要实现汽车自动驾驶,必须给汽车装六个摄像头,监视六个方向的信息。然后根据设定的道路目标去前行,遇到障碍物时知道回避或后退。现在,已经有了GPS系统帮助汽车驾驶了,但也只是给驾驶员一个参考:向前行,或后退,不能代替驾驶员的工作。道路上的复杂情况是很难预测的,自动驾驶系统首先必须会观察十字路口的红绿灯,根据红绿灯信号来控制汽车在十字路口该停、该走、可以拐弯,等等,这时,红绿灯还不是开停车的充分条件,还必须注意观察前后左右有无其他车辆,它们
的行动意图是什么,更要注意,有没有行人出现,还有小孩会自己乱跑到马路中间,必须注意避让。在过环岛(roundabout)时,知道左侧、右侧有无其它车辆过来,是该避让,还是自己先行。或是要按喇叭,警告别的车辆,这些都要自动驾驶系统做出决定。
设计这样一个自动驾驶系统,输入量就是前面说的六个摄像传感器,包括识别前方的交通红绿灯、判断前方有无障碍物的识别、车后视镜功能的摄像传感器,用于倒车时探测有无障碍物,等等。输出量包括汽车的开、停、前行、倒车、速度等等,必要时还有发出鸣笛等等。尽管设计这样的自动驾驶系统可以做到十分完好,但是“人命关天”,交通主管部门还是不会轻易做出决定,批准自动驾驶的汽车上路。目前我们只好等待,不知哪年哪月,等到有一天,无人驾驶的汽车可以上路了。那一天是皆大欢喜?还是皆大担忧?
人工智能之八:人机大战
人工智能的一个兴趣问题就是机器智能能超过人吗?如果机器智能能超过人,那么将来会不会人变成了机器的奴隶,机器人控制了人,替它干活。科幻小说里可以出现这种情节。现实世界还难以想象。因为人是有利、害观念的,机器没有它的利与害的“思想”。智能机器人没有“利害”观,但是人设计的机器人有“取胜”的意欲,它会有“打败”人的“愿望”,这也是设计机器人的人所赋予的。这样,人设计的“人机大战”就出现了。其结果是,真的,机器打败了人!
AlphaGo(阿尔法狗)是科学家设计的人工智能围棋选手,实际上就是一套智能程序。是人设计的,设计出来是要战胜人的。
去年AlphaGo对战李世石,李世石是著名围棋选手。许多职业人士都曾预计计算机(人工智能)无法胜出,但是最终李世石以1:4败北。可见AlphaGo确实实力强大。
今年5月23日——27日在浙江举行「中国乌镇围棋峰会」围棋「人机大战」巅峰对决,世界冠军柯洁出阵,,今年很多职业人士认为,柯洁获胜机率很小。
但是世界排名第一的中国棋王柯洁,先迎战并击败韩国棋王李世石,进而豪取60连胜记录的机器人。机器人被打败了。是不是机器智能没能超过人的智能呢?不见得,那是人设计的机器智能还不够好,智能高超的人会设计更好的机器棋手,再来超过活人棋手。人是怎样设计机器棋手的呢?
设想摆100个棋局,一方都是“机器选手”,另一方都是真人棋手,对弈起来,可能机器人不会全胜。但是设计机器人的科学家可以总结经验,再改进程序,真人取胜的机会就会减少。如此循环,机器人会越来越好,真人最后是打不过机器了。所以说,智能机器,说到底,还是人工机器,是人做出来的。但是它最终会战胜人类。
其实,拿战争中用的武器来说,武器先进,打胜仗的机会就大,武器落后,就会打败仗。所以,机器智能高的一方一定优于智能低的一方。说到底,还是拼技术、拼智能。在“斗智斗勇”时,我们千万不可忽视智能高低的对决,斗智更重要!
人工智能之九:仿真人
把机器人做得跟真人一样,维妙维俏,让人难辨真假,这不是不可能的,只是时间问题了。
现在我们已经可以看到一些和真人一起上台表演的机器人,机器人的脸部已经有表情的变化,眼睛会睁会闭,眉毛会抬、会皱,嘴巴会笑、会哭。不用说,胳臂能抬、能举,腿会走会
跑。跌倒了会爬起来。遇到障碍物会躲避、绕路走,还会打人,更不用说,会说话、会唱歌,会跳舞,会撒娇,会逗你乐,你还不满意吗?
不要说现在的机器人还有那些不完善的缺点,科学家们总会把它做得越来越好,将来好到跟真人几乎相差无几了。
我们可以想象一个传达室的值班机器人,可以接待来客,问:“贵姓?您找谁?请稍等,我给您联系一下。”它替你拨通电话,再让你说话等等。
在幼儿园里的机器人保姆,可以哄小孩,讲故事,唱歌,哄孩子睡觉,叫孩子起床,等等。
其实,从小学到大学,所有的讲课老师的工作,大部分都可以让机器人来做。肯定比现有不太称职的教师要好得多。因为它可以把最好的老师讲的课记下来,整理得更好,才上台去讲。
机器人的性伙伴很可能是将来的一大市场。男的找一个女的性伙伴,女的找一个男的性伙伴,他(她)跟你百依百顺,恩恩爱爱。它会“伺候”你好得不得了,他(她)当然不会跟你吵架,发脾气,又不吃不喝,只用一点点电而已。不过有一点,他(她)不会生孩子!
如果真想要孩子,那就去抱一个机器人娃娃,机器人娃娃也会哭会会笑、会唱歌,会逗你乐,当然,他(她)不会吃奶,不会撒尿、拉屎,不会给你添这类麻烦。还有一点,他(她)不会长大,老是那么大。也只是一个高级玩具而已。至少到现在,科学家还做不出会长大的机器人。将来,大概也不可能。
人工智能之十:战争智能化
自从有了人类,就有了战争。战争要死人,老百姓会死,军人更有可能战死。如今科技发达了,新的武器层出不穷,人类死于人类自己制造的武器,太悲哀了。那么人工智能如此发达,制造出智能机器人的士兵,让机器人上战场去打仗,可以避免人的伤亡,岂不是好事。如果战争双方都派出机器人去打仗,那就是打的双方的技术实力对比,哪一方的技术高超,他这一方就能打胜。这不是说着玩玩的,研究智能化战争具有重大的现实意义,这也是人工智能的重要研究课题。
其实,智能化战争并不是让机器人代替人拿着冲锋枪,跑上战场去打仗,也不是让机器人驾驶者坦克车去冲锋陷阵,因为根本没必要有一个模拟人坐在坦克里面去冲锋,打仗的双方是拼技术实力,新型战争将是人工智能的拼搏,打仗的双方拼的是技术,所以不可小视人工智能的研发和在战争方面的应用了。
中国古代有孙子,著有孙子兵法,孙子兵法的战略战术至今仍是军事学习的重要课本。人工智能创造不出孙子兵法的战略战术来,但是却有可能应用孙子兵法的技术去实践、并指挥今日的具体战事,所以开研发孙子兵法的实践和运用仍是今日军事研究的重要课题,这就是人工智能在军事方面的实践和应用的课题。
无人机就是智能化作战的实际例子,无人机不需要人去驾驶,避免了人的牺牲,也减轻了飞机的载重,无人机的制作十分简单,用所谓的3D打印机就能制造,制造成本低,关键是使用它的控制技术,单机的,或大批量的无人机去袭击敌方,必定要有高超的智能化控制。
战争讲究智和勇,机器智慧就讲究一个“智”字,无“智”就无“勇”可言。作战双方对垒,只有智者胜。
现代战争,武器的更新换代极快,机器智能必须跟进实际武器的发展,陆海空各有不同的武器,甚至太空武器的应用(对地面目标物的监视、追踪、瞄准、打击。)这些都包括在机器智能的研究范围之内,也都是智能化现代战争不可不着重研究的课题。经济日报 茅于杭