绪论:写作既是个人情感的抒发,也是对学术真理的探索,欢迎阅读由发表云整理的11篇人工智能与哲学思考范文,希望它们能为您的写作提供参考和启发。
中图分类号:TP18
文献标识码:A
一、人工智能技术的发展及其影响
人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。
随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。
二、人工智能技术发展面临的问题及其原因
随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。
调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。
第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。
第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。
第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。
三、人工智能技术的发展转向
人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。
1.技术层面
(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。
(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。
(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。
2.人类自身层面
(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。
(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。
(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。
3.道德法律用
(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。
(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。
此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。
四、结语
科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。
参考文献:
[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.
[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.
[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.
[4]王志良.人工情感[M].北京:机械工业出版社,2009.
[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).
[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.
[7]田金萍.人工智能发展综述[J].科技广场,2007(1).
[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.
“世上真的有上帝吗?”科学家用颤抖的声音问道。“现在有了。”世界上最聪明的人工智能电脑回答。话毕,一道电光闪过它的电源插头――人们再也关不掉它了。
主持人约翰・奥利弗听得瞪大了眼睛。和地球上大多数人一样,他也相信,当人类真要与人工智能作战时,切断它们的电源就足以制敌了。
2016年年初,斯蒂芬・霍金在一封提倡控制人工智能发展的公开信上签下自己的名字。在那封公开信上,微软创始人比尔・盖茨、特斯拉汽车公司与美国太空探索技术公司CEO伊隆・马斯克的名字也赫然在列。
人类一手创造并用“智慧”武装了敌人
几位人类科技界“顶梁柱”担心的“人机大战”,很可能已经悄悄冒出硝烟的味道。在上传至YouTube的一段视频中,一只名为Spot的机器狗协调地运动着白色的四肢,像真正的狗一样行走。为了证明它的坚固,有人冲出来,对准它的腹部结结实实地踢了一脚。机器狗一个趔趄,一边发出急促的吱吱声,一边紧踏几步保持平衡。
这段“虐狗”视频引发了热议。有网友评论:“这就是世界结束的方式。不是大爆炸,而是在被你踢了之后,机器狗转身扑向你。”
在现实世界里,人类也正处在人工智能的包围中:拿起手机,可与虚拟助手Siri对话;想要出门,可乘无人驾驶汽车兜风;走进医院,超级电脑沃森医生正在“坐诊”。
战争可能在某一天悄悄打Ⅱ向。电脑擅自替你做出抛售股票的决定,或者无人驾驶汽车突然决定在高速路上歇脚。之后的情况将超出“故障”的范畴,演变成灾难。
在忧心忡忡的科学家们看来,这将是一场前所未有的战争。人类一手创造了自己的敌人,并用自己最强大的武器――智慧,为它武装。
斯蒂芬・霍金说:“我认为我们无法再在这个脆弱的星球上生活1000年。”他认为,受困于缓慢的进化速度,人类无力与飞速发展的人工智能抗衡,最终,“人工智能的全面发展将导致人类的灭绝”。他甚至主张人类去其他星球“殖民”,以保证种群的延续。
百度公司首席科学家吴恩达则认为,现在为人工智能的负面影响担忧,就像担心火星上人口过剩一样遥不可及。
伊隆・马斯克却无法对此视而不见。这位亿万富翁已经开始“站岗放哨”。他为一家名为“Deep Mind”的人工智能公司注入资金,只是为了“盯着这种技术的走向”。
人工智能拥有成为“终结者”的潜力
一位高级认知机器人学研究者正面临着颇为纠结的教育问题。与不知怎样向孩子解释“小孩从哪儿来”的父母不同,他在思考要不要告诉孩子,他们可能不会有机会拥有自己的孩子,因为人工智能统治的时代已经近在咫尺了。
“人工智能真正严重的危险将在五年、最多十年后便会出现。”伊隆・马斯克2014年11月在群组博客Edge的讨论中写道。或许是太过惊悚,消息刚发出便被删除。
不过,人们还是可以确定,至少在一段时间内,人工智能将是照顾老人的护工,看护孩子的保姆,打理家务的管家,甚至与人心灵相通的朋友。通过解码面部肌肉运动,人工智能机器人将得以理解人的感情和思维,如同科幻电影里的“大白”一般,时刻准备送上治愈的拥抱。
乐观的哲学家格雷・斯科特描绘了一幅美好的图景:到2018年,自动化将遍及世界,机器将承包无聊或危险的工作,辅助人类做有趣的事情。在不远的未来,机器更将满足人类的生活所需,让二极管去算账,让女会计成为诗人。
然而,这些美妙的念头无法令他回避人工智能拥有成为“终结者”的潜力,即便在它完全服从命令的时候。
“在追击人群中的一个目标时,它会知道等目标离开人群后再开火吗?”格雷・斯科特问道。这是科学家们共同承认的一个困境:如何为道德编码?当人工智能被用于军事,这变得尤为重要。
哈佛大学法学院曾呼吁“通过国际法令,禁止开发、生产、使用自主式武器”。起草报告的邦妮・多赫蒂义正辞严地表示:“没有道德和人性的机器不应拥有杀戮的权力!”
在好莱坞电影《复仇者联盟:奥创纪元》中,人工智能奥创以“杀戮”的方式,忠实地履行着创造者维护和平的意愿,在它看来,这手段最为有效。
在现实中,科学家也担心,会不会有一天,“抗癌斗士”纳米机器人仔细思考后发现,比起杀死癌细胞,清除基因上易患病的人更方便。
“把能量释放出来容易,想确保安全却很难。”伊隆・马斯克认为,人工智能研究的重点首先应该放在安全上。如果开发时间因此延长,恰恰是正确的路径。“我们不能一头扎向自己不懂的东西。”他说。
人工智能将是人类历史上最大的成功。也可能是最后一个
哲学家格雷・斯科特指出,机器的反应取决于人类对它们的设定,降低机器的自尊水平或许能够避免冲突。他对人类充满信心,他相信,人类已经用技术和法律规范约束了核弹,也必定有能力管理人工智能。
然而,在斯蒂芬・霍金口中,人工智能无疑是前所未有的劲敌,“比金融家更聪明,比研究者更富创造力,比领导更具操控力”。毕竟,它正在让人类失业。
你如果从事的是程序性的工作,在人工智能面前,便有失业的危险。目前,人工智能还没有太大竞争优势的只剩下一些内容为非程序性工作的职业,比如教师,比如需要具体评估每颗牙怎么补的牙医。未来比较好的选择是挑选和人工智能密切合作的工作。
在电影《超验骇客》中,被暗杀的科学家威尔在妻子的帮助下,成功将自我意志转入超级电脑之中,从此成了无所不在的“超验骇客”。他能从土壤中造出太阳能板,能让残疾人长出新肢,能全天候通过一切终端出现……
1.引言
随着科学技术近年来突飞猛进的发展,计算机及相关智能化应用在各个领域中占据了越来越重要的地位。无论是日常生活、工业领域还是军事领域,使用计算机的场合越来越多,而且不仅仅局限于最初的科学计算。在这种前提下,人工智能的概念应运而生。人工智能是20世纪中叶科学技术所取得的重大成果之一。它的诞生与发展对人类文明产生了巨大的影响和效益,同时,人类是否最终成为机器人的奴隶,人类社会会被计算机取代等等问题也被人提出并广泛讨论,这也就引起了哲学意识与人工智能的理论探讨。
2.人工智能的诞生
人工智能是20世纪中叶科学技术所取得的重大成果之一。人工智能是相对于人类智能而言的。它是指用机械和电子装置来模拟和代替人类的某些智能。人工智能也称“机器智能”或“智能模拟”。当今人工智能主要是利用电子技术成果和仿生学方法,从大脑的结构方面模拟人脑的活动,即结构模拟。
人脑是智能活动的物质基础,是由上百亿个神经元组成的复杂系统。结构模拟是从单个神经元入手的,先用电子元件制成神经元模型,然后把神经元模型连接成神经网络(脑模型),以完成某种功能,模拟人的某些智能。如1957年美国康乃尔大学罗森布莱特等人设计的“感知机”,1975年日本的福岛设计的“认知机”(自组织多层神经网络)等。
电子计算机是智能模拟的物质技术工具。它是一种自动、高速处理信息的电子机器。它采用五个与大脑功能相似的部件组成了电脑,来模拟人脑的相应功能。这五个部件是:(1)输入设备,模拟人的感受器(眼、耳、鼻等),用以接受外来的信息。人通过输入设备将需要计算机完成的任务、课题、运算步骤和原始数据采用机器所能接受的形式告诉计算机,并经输入设备把这些存放到存贮器中。(2)存贮器,模拟人脑的记忆功能,将输入的信息存储起来,供随时提取使用,是电子计算机的记忆装置。(3)运算器,模拟人脑的计算、判断和选择功能,能进行加减乘除等算术运算和逻辑运算。(4)控制器,人脑的分析综合活动以及通过思维活动对各个协调工作的控制功能,根据存贮器内的程序,控制计算机的各个部分协调工作。它是电脑的神经中枢。(5)输出设备,模拟人脑的思维结果和对外界刺激的反映,把计算的结果报告给操作人员或与外部设备联系,指挥别的机器动作。
以上五部分组成的电脑是电子模拟计算机的基本部分,称为硬件。只有硬件还不能有效地模拟和代替人脑的某些功能,还必须有相应的软件或软设备。所谓软件就是一套又一套事先编好的程序系统。
人工智能的产生是人类科学技术进步的结果,是机器进化的结果。人类的发展史是人们利用各种生产工具有目的地改造第一自然(自然造成的环境,如江河湖海、山脉森林等),创造第二自然(即人化自然,如人造房屋、车辆机器等)的历史。人类为了解决生理机能与劳动对象之间的矛盾,生产更多的财富,就要使其生产工具不断向前发展。人工智能,是随着科学技术的发展,在人们创造了各种复杂的机器设备,大大延伸了自己的手脚功能之后,为了解决迫切要延伸思维器官和放大智力功能的要求而产生和发展起来的。
从哲学上看,物质世界不仅在本原上是统一的,而且在规律上也是相通的。不论是机器、动物和人,都存在着共同的信息与控制规律,都是信息转换系统,其活动都表现为一定信息输入与信息输出。人们认识世界与在实践中获取和处理信息的过程相联系,改造世界与依据已有的信息对外界对象进行控制的过程相联系。总之,一切系统都能通过信息交换与反馈进行自我调节,以抵抗干扰和保持自身的稳定。因此,可以由电子计算机运用信息与控制原理来模拟人的某些智能活动。
从其它科学上来说,控制论与信息论就是运用系统方法,从功能上揭示了机器、动物、人等不同系统所具有的共同规律。以此把实际的描述形式化,即为现象和行为建立一个数学模型;把求解问题的方式机械化,即根据数学模型,制定某种算法和规则,以便机械地执行;把解决问题的过程自动化,即用符号语言把算法和规则编成程序,交给知识智能机器执行某种任务,使电子计算机模拟人的某些思维活动。所以,控制论、信息论是“智能模拟”的科学依据,“智能模拟”是控制论、信息论在实践中的最重要的实践结果。
3.人工智能与人类智能的区别
人工智能是人类智能的必要补充,但是人工智能与人类智能仍存在着本质的区别:
(1)人工智能是机械的物理过程,不是生物过程。它不具备世界观、人生观、情感、意志、兴趣、爱好等心理活动所构成的主观世界。而人类智能则是在人脑生理活动基础上产生的心理活动,使人形成一个主观世界。因此,电脑与人脑虽然在信息的输入和输出的行为和功能上有共同之处,但在这方面两者的差别是十分明显的。从信息的输入看,同一件事,对于两个智能机具有相同的信息量,而对于两个不同的人从中获取的信息量却大不相同。“行家看门道,外行看热闹”就是这个道理。从信息的输出方面看,两台机器输出的同一信息,其信息量相等。而同一句话,对于饱经风霜的老人和天真幼稚的儿童,所说的意义却大不相同。
(2)人工智能在解决问题时,不会意识到这是什么问题,它有什么意义,会带来什么后果。电脑没有自觉性,是靠人的操作完成其机械的运行机能;而人脑智能,人的意识都有目的性,可控性,人脑的思维活动是自觉的,能动的。
(3)电脑必须接受人脑的指令,按预定的程序进行工作。它不能输出未经输入的任何东西。所谓结论,只不过是输入程序和输入数据的逻辑结果。它不能自主地提出问题,创造性地解决问题,在遇到没有列入程序的“意外”情况时,就束手无策或中断工作。人工智能没有创造性。而人脑功能则能在反映规律的基础上,提出新概念,做出新判断,创造新表象,具有丰富的想象力和创造性。
(4)人工机器没有社会性。作为社会存在物的人,其脑功能是适应社会生活的需要而产生和发展的。人们的社会需要远远超出了直接生理需要的有限目的,是由社会的物质文明与精神文明的发展程序所决定的。因此,作为人脑功能的思维能力,是通过社会的教育和训练,通过对历史上积累下来的文化的吸收逐渐形成的。人的内心世界之所以丰富多彩,是由于人的社会联系是丰富的和多方面的,人类智能具有社会性。所以要把人脑功能全面模拟下来,就需要再现人的思想发展的整个历史逻辑。这是无论多么“聪明”的电脑都做不到的。随着科学技术的发展,思维模拟范围的不断扩大,电脑在功能上会不断向人脑接近。但从本质上看,它们之间只能是一条渐近线,它们之间的界限是不会清除的。模拟是近似而不能是等同。
4.总结
从以上分析不难看出,人工智能与人脑在功能上是局部超过,而整体上不及。由于人工智能是由人造机器而产生的,因此,人工智能永远也不会赶上和超过人类智能。所谓“机器人将超过人奴役人”、“人将成为计算机思想家的或害虫,……保存在将来的动物园”的“预言”是不能成立的。因为,它抹煞了人与机器的本质差别与根本界限。然而,在现代科学认识活动中,没有人工智能,就不会有人类认识能力的突破性发展和认识范围的不断扩大。不仅电脑依赖于人,人也依赖于电脑。这就使得对人工智能的探讨以及对人机互补的关系的探讨成为一个新的课题。
参考文献
[1]王万森.人工智能原理及应用[M].北京:电子工业出版社,2002.
[2]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.
[3]韦涛.未来与发展[N].2006(2).
[4]史忠植.高级人工智能[M].北京:科学出版社,1998.
[5]李陶深.人工智能[M].重庆:重庆大学出版社,2002.
中图分类号:TP18 文献标识码:A 文章编号:1007-3973(2013)001-085-03
1引言
人工智能(Artificial Intelligence,AI)自从20世纪50年代产生,经过长期发展,已经有了长足的进步,并且已经深入到社会生活的诸多领域,如语言处理、智能数据检索系统、视觉系统、自动定理证明、智能计算、问题求解、人工智能程序语言以及自动程序设计等。随着科学技术的不断发展,现在的人工智能已经不再是仅仅具有简单的模仿与逻辑思维能力,人们也越来越期待人工智能能够帮助或者替代人类从事各种复杂的工作,加强人的思维功能、行为功能或是感知功能。这就要求人工智能具有更强的情感识别、情感表达以及情感理解能力。通俗的说,为了使得人工智能对外界的变化适应性更强,需要给它们赋予相应的情感从而能够应对这个难以预测的世界。
在赋予人工智能“情感”的过程中,面临着许多的问题,有科技层面上的,也有社会学层面的。本文在这里只讨论其中一个比较基本的社会学问题:“人工智能情感约束问题”,即关注于如何约束赋予给人工智能的情感,不至于使其“情感泛滥”。情感指的是一种特殊的思维方式,人工智能具有了情感后的问题是:人工智能的情感是人类赋予的,人工智能自身并不会创造或者控制自己的情感。如果赋予人工智能的情感种类不合理,或者是赋予的情感程度不恰当,都有可能造成“情感泛滥”并导致一些灾难性的后果。例如,当人工智能具有了情感之后,如果人类自身管理不恰当,有可能导致人工智能反过来伤害人类。尽管目前我们只能在一些科幻作品中看到这种情况发生,但谁也不能保证未来有一天会不会真的出现这种悲剧。
本文第二章对人工智能情感研究进行了概要性回顾,第三章对如何约束人工智能情感进行了尝试性探讨,最后一章对全文进行了总结。
2人工情感发展情况概述
随着科学家对人类大脑及精神系统深入的研究,已经愈来愈肯定情感是智能的一部分。人工情感是以人类自然情感理论为基础,结合人工智能、机器人学等学科,对人类情感过程进行建模,以期获得用单纯理性思维难以达到的智能水平和自主性的一种研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感机器识别与表达、人工情感机理等四个方面的内容。其中,尤以人工情感机理的研究困难最大,研究者也最少。
目前人工情感在很多领域得到了应用和发展,比较典型的是在教育教学、保健护理、家庭助理、服务等行业领域。在教育教学方面比较典型的例子是德国人工智能研究中心发展的三个方案:在虚拟剧场、虚拟市场和对话Agent中引入情感模型和个性特征来帮助开发儿童的想象力及创造力。在保健护理方面比较典型的是家庭保健与护理方向,如Lisetti等人研制的一个用于远程家庭保健的智能情感界面,用多模态情感识别手段来识别病人的情感状态,并输入不同媒体和编码模型进行处理,从而为医生提供关于病人简明而有价值的情感信息以便于进行有效的护理。服务型机器人的典型例子是卡内基梅隆大学发明的一个机器人接待员Valerie。Valerie的面孔形象的出现在一个能够转动方向的移动屏幕上时可以向访问者提供一些天气和方位方面的信息,还可以接电话、解答一些问题;并且Valerie有自己的性格和爱好,情感表达较为丰富。当然这些只是人工情感应用领域中的几个典型的例子,人工智能情感的潜力仍然是巨大的。
尽管关于人工情感的研究已经取得了一定的成果,给我们带来了很多惊喜和利益,但由于情绪表现出的无限纷繁以及它与行为之间的复杂联系,人们对它的运行机理了解的还不成熟,以致使得目前人工情感的研究仍面临着诸如评价标准、情感道德约束等多方面问题。所以必须清楚的认识到我们目前对于人工情感的计算乃至控制机制并没有一个成熟的体系。
3对人工智能的情感约束
正如上文所述,如果放任人工智能“情感泛滥”,很有可能会造成严重的后果。为了使人工智能技术更好的发展,使智能与情感恰到好处的结合起来,我们有必要思考如何对赋予人工智能情感进行引导或者约束。
3.1根据级别赋予情感
可以根据人工智能级别来赋予其情感,如低级别人工智能不赋予情感、高级别人工智能赋予其适当的情感。众所周知,人工智能是一门交叉科学科,要正确认识和掌握人工智能的相关技术的人至少必须同时懂得计算机学、心理学和哲学。首先需要树立这样的一个观点:人工智能的起点不是计算机学而是人的智能本身,也就是说技术不是最重要的,在这之前必须得先解决思想问题。而人工智能由于这方面没有一个严格的或是量度上的控制而容易出现问题。从哲学的角度来说,量变最终会导致质变。现在是科学技术飞速发展的时代,不能排除这个量变导致质变时代的人工智能机器人的到来,而到那个时候后果则不堪设想。因此,在现阶段我们就应该对人工智能的情感赋予程度进行一个约束。
根据维纳的反馈理论,人工智能可以被分成高低两个层次。低层次的是智能型的人工智能,主要具备适应环境和自我优化的能力。高层次的是情感型的人工智能,它的输入过程主要是模仿人的感觉方式,输出过程则是模仿人的反应情绪。据此我们可分别将机器人分为一般用途机器人和高级用途机器人两种。一般用途机器人是指不具有情感,只具有一般编程能力和操作功能的机器人。那么对于一般用途的机器人我们完全可以严格的用程序去控制它的行为而没必要去给他赋予情感。而对于高级层面的情感机器人来说,我们就适当的赋予一些情感。但即使是这样一部分高层次的情感机器人,在赋予人工情感仍然需要考虑到可能会带来的某些潜在的危害,要慎之又慎。
3.2根据角色赋予情感
同样也可以根据人工智能机器人角色的不同选择性的赋予其不同类型的情感。人类与机器合作起来比任何一方单独工作都更为强大。正因为如此,人类就要善于与人工智能机器合作,充分发挥人机合作的最大优势。由于计算机硬件、无线网络与蜂窝数据网络的高速发展,目前的这个时代是人工智能发展的极佳时期,使人工智能机器人处理许多以前无法完成的任务,并使一些全新的应用不再禁锢于研究实验室,可以在公共渠道上为所有人服务,人机合作也将成为一种大的趋势,而他们会以不同的角色与我们进行合作。或作为工具、顾问、工人、宠物、伴侣亦或是其他角色。总之,我们应该和这些机器建立一种合作互助的关系,然后共同完任务。这当然是一种很理想的状态,要做到这样,首先需要我们人类转变自身现有的思维模式:这些机器不再是一种工具,而是平等的服务提供人。
举例来说,当机器人照顾老人或是小孩的时候,我们应该赋予它更多的正面情绪,而不要去赋予负面情绪,否则如果机器人的负向情绪被激发了,对于这些老人或者小孩来说危险性是极大的;但是,如果机器人是作为看门的保安,我们对这种角色的机器人就可以适当的赋予一些负向的情绪,那么对于那些不按规则的来访者或是小偷就有一定的威慑力。总之,在我们赋予这些智能机器人情感前必须要周到的考虑这些情感的程度和种类,不要没有顾忌的想当然的去赋予,而是按分工、作用赋予限制性的情感约束,达到安全的目的。
3.3对赋予人进行约束
对人工智能情感赋予者进行约束,提高赋予者的自身素质,并定期考核,并为每一被赋予情感的人工智能制定责任人。
纵观人工智能技术发展史,我们可以发现很多的事故都是因为人为因素导致的。比如,首起机器人杀人案:1978年9月的一天,在日本广岛,一台机器人正在切割钢板,突然电脑系统出现故障,机器人伸出巨臂,把一名工人活生生地送到钢刀下,切成肉片。
另外,某些研究者也许会因为利益的诱惑,而将人工智能运用在不正当领域,或者人工智能技术落入犯罪分子的手中,被他们用来进行反对人类和危害社会的犯罪活动。也就是用于所谓的“智能犯罪”。任何新技术的最大危险莫过于人类对它失去控制,或者是它落入那些企图利用新技术反对人类的人的手中。
因此为了减少这些由于人而导致的悲剧,我们需要对这些研究者本身进行约束。比如通过相应的培训或是定期的思想政治教育、或是理论知识的学习并制定定期的考核制度来保证这些专家自身的素质,又或者加强对人工智能事故的追究机制,发生问题能立即查询到事故方等等,通过这样一系列强有力的硬性指标达到减少由于人为因素导致悲剧的目的。
3.4制定相应的规章制度来管理人工智能情感的发展
目前世界上并未出台任何一项通用的法律来规范人工智能的发展。不过在1939 年,出生在俄国的美籍作家阿西莫夫在他的小说中描绘了工程师们在设计和制造机器人时通过加入保险除恶装置使机器人有效地被主人控制的情景。这就从技术上提出了预防机器人犯罪的思路。几年后, 他又为这种技术装置提出了伦理学准则的道德三律:(1)机器人不得伤害人类,或看到人类受到伤害而袖手旁观;(2)在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;(3)在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。这一“机器人道德三律”表现了一种在道德忧思的基础上,对如何解决人工智能中有害人类因素所提出的道德原则,虽然得到很多人的指责,但其首创性还是得到公认的。尽管这个定律只是小说家提出来的,但是也代表了很多人的心声,也是值得借鉴的。
那么对于人工智能情感的约束呢?显然,更加没有相应的法律法规来规范。那么,我们就只能在赋予人工智能情感的道理上更加的小心翼翼。比如,我们可以制定一些应急方案来防止可能导致的某些后果,也即出现了问题如何及时的处理之。另外我们在操作和管理上应更加慎重的去对待。也希望随着科学技术的发展,能够在不久的将来出台一部相应的规章制度来规范人工智能情感的管理,使之更加精确化、合理化。
4结束语
人工智能的情感研究目的就是探索利用情感在生物体中所扮演的一些角色、发展技术和方法来增强计算机或机器人的自治性、适应能力和社会交互的能力。但是现阶段对这方面的研究虽然在技术上可能已经很成熟,但是人工智能情感毕竟是模拟人的情感,是个很复杂的过程,本文尝试性的在人工智能发展中可能遇到的问题进行了有益的探讨。但是不可否认仍然有很长的道路要走,但是对于人工智能的发展劲头我们不可否认,将来“百分百情感机器人”的问世也许是迟早的事情。
参考文献:
[1] 赵玉鹏,刘则渊.情感、机器、认知――斯洛曼的人工智能哲学思想探析[J].自然辩证法通讯,2009,31(2):94-99.
[2] 王国江,王志良,杨国亮,等.人工情感研究综述[J].计算机应用研究,2006,23(11):7-11.
[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究综述[J].江南大学学报(自然科学版),2012,11(04):497-504.
[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.
[5] Valerie.The Roboceptionist[EB/OL].http://.
[6] 张显峰,程宇婕.情感机器人:技术与伦理的双重困境[N].科技日报,2009-4-21(005).
[7] 张晓丽.跟机器人谈伦理道德为时尚早[N].辽宁日报,2011-11-04(007).
[8] Peter Norvig.人工智能:机器会“思考”[J].IT经理世界,2012(Z1):331-332.
总体而言,当代哲学研究对科学发展的回应,无论是在国际还是在国内哲学界,都存在正反两种不同观点,我将它们分别称作“科学万能论”和“哲学特色论”,前者声称一切自然现象都可以用自然科学加以说明,后者则强调哲学的不可替代作用。这两种观点都是哲学家们对当代科学发展的极端反应。根据“科学万能论”的观点,科学发展已经为人类提供了所有可能解释的现实方案,并对人类未来发展提供了可以预期的解决方案。这使得哲学家们对科学研究成果的哲学扩展抱有极大希望,表现为以某一种自然科学研究为模板推进哲学领域的问题研究,或者是按照自然科学的方法重建哲学研究的基本模式。20世纪初期维也纳学派的逻辑实证主义哲学就是这种观点的典型代表,而当代英美分析哲学中的自然主义进路也充分反映了哲学家们对科学研究方法的推崇,无论是在语言哲学、心灵哲学还是在认知科学哲学和实验哲学研究中,我们都可以强烈感受到科学主义传统的深刻影响。从当代哲学发展的历史轨迹看,科学主义传统的确发挥了重要作用,提倡以科学研究的方式进行哲学研究,这也带来了当代哲学的革命性变革。无论我们是否承认科学主义的这种历史作用,科学研究的基本方法和路径为当代哲学研究的确带来了不可否认的影响。然而,这种“科学万能论”的观点明显夸大了科学研究对当代哲学发展的作用,因而存在用科学取代哲学的潜在危险。由于哲学研究具有明显的个人特征而无法重复等性质,一些哲学家就认为,这些性质保证了哲学研究具有科学研究无法取代的特色,因而我们不能用科学研究代替哲学研究。这就是“哲学特色论”的主要观点。这种观点的最初捍卫者来自19世纪后半叶的新康德主义哲学家狄尔泰、文德尔班和李凯尔特等人,他们坚持严格区分精神科学与自然科学,并认为两者的根本区别就在于前者强调了精神现象的优先性和特殊性,而后者仅仅是精神科学方法的具体运用。同时,他们还认为,自然科学研究对普遍性的追求与精神科学对特殊性的要求,使得两者之间无法相互取代。“哲学特色论”在现代哲学中是以实证主义传统的对立面出现的,这表现为晚年胡塞尔对欧洲科学危机的忧虑、海德格尔对现代实证科学的批判以及后期维特根斯坦对现代科学文明的反思。虽然胡塞尔、海德格尔和维特根斯坦对科学的性质有各自不同的理解,但在对待科学与哲学关系问题上的态度却基本上是一致的:他们都把哲学研究看作是一种与现代科学研究完全不同的事业,在胡塞尔那里是一种真正严格意义上的科学,在海德格尔那里是一种追问科学意义的形而上学,在维特根斯坦那里则是一种反思性的理智活动。因此,哲学研究具有科学研究无法取代的特殊性质。这种“哲学特色论”的观点不仅直接反对把哲学研究混同于科学技术,或者用科学研究方法从事哲学研究,而且试图用哲学的特殊性质反对科学技术的成就,反对哲学研究中的科学主义和实证主义倾向。从积极的意义上看,这种反对意见对于提醒我们注意科学主义和实证主义在当代哲学中的泛滥的确具有重要作用;但同时,我们更需要看到,这种“哲学特色论”的结果是把哲学研究完全排除于科学发展的视野之外,这不仅不利于科学的发展,也不利于哲学自身的发展。
当代哲学对科学技术研究的介入
从当代科学发展的基本图景中可以看到,当代哲学始终在以各种不同形式介入科学技术的研究,并试图用哲学的方式说明当代科学发展的最新成果。这首先表现在科学哲学研究领域,其次表现在以认知科学和人工智能为代表的交叉学科研究中。可以说,科学哲学研究是哲学家们深入科学研究领域的主战场。早期科学哲学家们,如逻辑实证主义者石里克、卡尔·波普等,坚持把科学研究作为哲学研究的基本模板,以科学主义精神贯穿于哲学研究的全过程。虽然后来的哲学发展逐渐表明维也纳学派“统一科学”纲领的失败,但这一纲领体现的科学精神,即以经验为向导、以逻辑为手段、以效果为目的,却在后来的科学哲学研究中保留了下来,特别体现在具体科学哲学的研究领域中。当前科学哲学研究通常被划分为两个主要部分。一部分是“一般科学哲学”,主要关心的是科学研究的历史发展、科学研究的方法论以及科学哲学研究的一般问题;另一部分则是“具体科学哲学”,主要涉及不同科学研究领域中的哲学问题,从哲学认识论和方法论上讨论具有普遍意义的科学问题。“一般科学哲学”处理确证、语义和科学理论的哲学解释,其中包括了科学概念的操作性特征、认知意义的经验标准、理论的相互融合、科学革命、科学实在论的演变、因果解释、还原论与科学的统一,等等。“具体科学哲学”则包括了物理学哲学、生物学哲学、心理学哲学、社会科学哲学,等等。此外,在当代分析哲学传统中,还有逻辑哲学、数学哲学、语言哲学、心灵哲学等,它们不仅与自然科学研究密切相关,而且已经成为当代哲学研究的独立分支领域。越来越多的哲学家已经充分意识到哲学研究对科学技术最新成果的介入的重要性和必要性。这种介入在以认知科学和人工智能研究为代表的交叉学科研究领域表现得更为明显。如今,认知科学研究已经被公认为具有多学科交叉研究性质的综合性科学,其中,哲学与心理学、计算机科学、神经科学、语言学与人类学等都被视为认知科学研究的主体学科,共同构成了认知科学研究的基础部分。与人工智能技术相比,认知科学研究是对人类认知获得的性质、范围、形式和表征方式的基础研究,因而应当属于传统科学研究的理论部分。这些研究通常包括了两个主要部分:其一是与人类认知和心灵活动密切相关的内容研究,其二是与认知活动特征描述密切相关的表征研究。内容研究部分主要涉及意识的性质和内容、动物认知、认知神经科学、认知心理学等。这些与当代心灵哲学研究的主题和内容有实质性的交叉,因而说明认知科学与哲学研究的交叉性质。在人工智能技术日益活跃的今天,人们对这种技术所带来的一系列伦理问题提出了更多的担忧和思考。应当说,人工智能技术的每一项突破都是在更新人类对自身的认知,不断拓展人类的认知边界。相对于人类主体,人工智能构建了一个巨大的“他者”,挑战了传统的“人类中心主义”。这个他者不是被人类奴役的客观对象,而是与人类地位平等的另类主体,甚至就是人类自身。难以想象的是,当人类大脑的所有神经元逐个被硅基芯片或其他人工智能技术所替换,我们在自我审视或审视他人的时候,我们究竟是在审视什么样的对象。因此,在现有的人类社会条件下,人工智能技术自然就会引发大量伦理关切,人工智能技术的利用就会威胁到人类伦理的一些基本信念。这些都迫使我们在人工智能技术高速发展的今天,重新思考人类智能与人工智能之间的关系。
0 引言
人工智能(Artificial Intelligence),英文缩写为AI,是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机。二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪(基因工程、纳米科学、人工智能)三大尖端技术之一。
1 人工智能的发展历程
(1)人工智能的思想萌芽可以追溯到十七世纪的巴斯卡和莱布尼茨,他们较早萌生了有智能的机器的想法。十九世纪,英国数学家布尔和德摩尔根提出了“思维定律”,这些可谓是人工智能的开端。十九世纪二十年代,英国科学家巴贝奇设计了第一架“计算机器”,它被认为是计算机硬件,也是人工智能硬件的前身。1936年,24岁的英国数学家图灵提出了“自动机”理论,把研究会思维的机器和计算机的工作大大向前推进了一步,在定义智慧时,图灵做出了解释,如果一台机器能够通过称之为图灵实验的测试,那它就是智慧的,图灵实验的本质就是让人在不看外型的情况下不能区别是机器的行为还是人的行为。(2)上世纪三四十年代,维纳、弗雷治、罗素的数理逻辑,和丘奇、图灵的数字功用以及计算机处理发展促使了1956年夏Dartmouth会议上人工智能学科(由“人工智能之父”麦卡锡提出,麦卡锡曾是Stanford人工智能实验室主任)的诞生20世纪60年代以来,采用生物模仿来建立功能强大的算法,包括进化计算等,人工生命以进化计算为基础,研究自组织、自复制、自修复以及形成这些特征的进化和环境适应。70年代以来,Conrad等研究人工仿生系统中的自适应、进化和群体动力学,提出不断完善的“人工世界”模型。80年代,人工神经网络再度兴起促进人工生命的发展。(3)1992年贝兹德克提出计算智能。专家系统在90年代兴起,模拟人类专家解决领域问题。
2 人工智能的研究
强人工智能的观点认为有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。弱人工智能的观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。现在主流科研集中在弱人工智能上,强人工智能的研究则处于停滞不前的状态下。
目前人工智能主要研究内容是:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面,分布式人工智能与多智能主体系统、人工思维模型、知识系统、知识发现与数据挖掘、遗传与演化计算、人工生命应用等等。未来人工智能可能会向以下几个方面发展:模糊处理、并行化、神经网络和机器情感。
3 人工智能的应用
IBM公司“deep blue”电脑击败了人类的世界国际象棋冠军,美国Sandia实验室建立了国际上最庞大的“虚拟现实”实验室,拟通过数据头盔和数据手套实现更友好的人机交互。国际各大计算机公司相继开始将人工智能作为其研究内容,几乎包括所有IT企业,以及很多金融巨头,纷纷建立自己的人工智能产业部,利用“智能”来解决问题。无人驾驶车的诞生,打破了汽车靠人驾驶的时代。
MIT开发出了SHRDLU,STUDENT系统可以解决代数问题,而SIR系统则开始理解简单的英文句子了,SIR的出现导致了新学科的出现:自然语言处理。在70年代出现的专家系统成了一个巨大的进步,它头一次让人知道计算机可以代替人类专家进行工作。在理论方面,计算机开始有了简单的思维和视觉,而不能不提的是人工智能语言Prolog语言诞生了,它和Lisp一起几乎成了人工智能工作者不可缺少的工具。
4 人工智能的影响及发展必须注意的问题
(1)人工智能对自然科学的影响。在需要使用数学计算机工具解决问题的学科,AI带来的帮助不言而喻。更重要的是,AI反过来有助于人类最终认识自身智能的形成。(2)人工智能对经济的影响。专家系统更深入各行各业,带来巨大的宏观效益。AI也促进了计算机工业网络工业的发展。但同时,也带来了劳务就业问题。由于AI在科技和工程中的应用,能够代替人类进行各种技术工作和脑力劳动,会造成社会结构的剧烈变化。(3)人工智能对社会的影响。AI也为人类文化生活提供了新的模式。现有的游戏将逐步发展为更高智能的交互式文化娱乐手段,今天,游戏中的人工智能应用已经深入到各大游戏制造商的开发中。
伴随着人工智能和智能机器人的发展,不得不讨论是人工智能本身就是超前研究,需要用未来的眼光开展现代的科研,因此很可能触及伦理底线。作为科学研究可能涉及到的敏感问题,需要针对可能产生的冲突及早预防,而不是等到问题矛盾到了不可解决的时候才去想办法化解。
5 智能机器人
智能机器人具有类似于人的智能,它装备了高灵敏度的传感器,因而具有超过一般人的视觉、听觉、嗅觉、触觉的能力,能对感知的信息进行分析,控制自己的行为,处理环境发生的变化,完成交给的各种复杂、困难的任务。而且有自我学习、归纳、总结、提高已掌握知识的能力。目前研制的智能机器人大都只具有部分的智能,和真正的意义上的智能机器人,还差得很远。
6 结语
当然,虽然人工智能一直都处于计算机技术的最前沿,但人工智能的发展也并不是一帆风顺的,并不象我们期待的那样迅速,也曾因计算机计算能力的限制无法模仿人脑的思考以及与实际需求的差距过远而走入低谷。人工智能的问题的在于,一方面哲学、认知科学、思维科学和心理学等学科所研究的智能层次高而抽象;另一方面AI逻辑符号、神经网络和行为主义所研究的智能层次太基本。由于对中间机制知之甚少,这种背景下提出的各种AI理论,就只能是或者完全不同于人类思维,与人类的思维模式相距太远,同时在人类思维方式的理解上也有待突破,不然很难形成更新的AI框架和理论体系。尽管如此,多学科的联合协作研究也带来了足够引人注目的增长。因为人工智能的基本理论还不完整,我们还不能从本质上解释我们的大脑为什么能够思考,这种思考来自于什么,这种思考为什么得以产生等一系列问题。但经过这几十年的发展,我们相信它会给世界带来难以预料的变化。
参考文献:
[1][美]StuartJ.Russell[美]PeterNorvig人工智能:一种现代的方法(第3版).
[2]人工智能及其应用蔡自兴徐光佑.
顾名思义,人工智能就是人造的智能,它是一门通过计算过程力图理解和模仿智能行为的学科。其基本目标就是使机器表现出类似人类的判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动,使机器具有类似人类的智能行为,使机器思维能拥有人类的思考方式。
人工智能的思想最早可以追溯到法国哲学家笛卡尔的“有灵魂的机器”。到了20世纪30年代,英国数学家图灵提出了“自动化理论”,把研究会思维的机器和开发计算机的工作大大向前推进了一步,他也因此被称为“人工智能之父”。但是,“人工智能”这个概念真正诞生的标志是1956年夏季在美国达特玛斯大学召开的以“人工智能”为名的学术讨论会。随后的几十年中,人们从问题求解、逻辑推理、定理证明、自然语言理解、博弈、自动程序设计、专家系统、学习以及机器人学等多个角度展开了研究,并建立了一些具有不同程度人工智能的计算机系统。当然,人工智能的发展也不是一帆风顺的,曾一度因为计算机计算能力的限制无法模仿人脑的思考以及与实际需求的差距过大而走入低谷。但是随着计算机硬件和软件的发展,计算机的运算能力以指数级增长,加之网络技术的蓬勃兴起使得目前的计算机已经具备了足够的条件来运行一些要求较高的人工智能软件。当然,人工智能的快速发展并不意味着它已经能达到人脑的水平,但人工智能的发展潜力还是巨大的。根据人工智能研究的主要目标,以下4个方面引领了人工智能的发展方向:第一,与生物技术、电子技术结合,研究生物电子体;第二,与脑科学、信息处理技术结合,研究人工大脑;第三,与网络技术、软件技术结合,研究智能软件;第四,与通讯技术、控制技术结合,研究家庭机器人。
有血有肉的生物电子体
在我们的印象中,人工智能通常是一个计算机软件,其实它也可能拥有一副有血有肉的身躯在现世界行走、奔跑甚至飞翔。生物电子体技术就是让人工智能拥有活动能力的一种全新技术。
生物电子体是生物细胞与电脑微芯片有效协作的共存体,可以实现部分或全部生物的智能。研制电子生物体主要有“植入法”和“提取法”两种方式:“植入法”就是把模拟生物体的电脑微芯片植入生物体,并与生物体形成协作共存体;“提取法”就是从生物体中提取出细胞组织与模拟生物体的微芯片结合为协作共存体。
研究生物电子体的目的,就是希望制备出一种协作共存体,从而对生物体进行有效控制,使其为人类服务。譬如当年美国“9・11”恐怖袭击后,美国政府紧急安排了10种机器人进行城市搜索和救援工作,但其中有6种机器人由于体积太大而不能运送到现场开展工作。试想一下,我们如果利用生物电子体有效控制爬行动物的行为,使其为人类服务,这可能比研究救援机器人花费的时间和资源更少一些。
在生物电子体领域,各国已相继开展了诸多研究。利用相对简单的“植入法”,日本东京大学率先研究了一种蟑螂控制技术,他们把蟑螂头上的触须和翅膀切除,插入电极、微处理器和红外传感器,通过遥控信号产生电刺激,使蟑螂能够沿着特定方向行进。美国纽约州立大学通过向老鼠体内植入微控制器,也成功实现了对老鼠的转弯、前进、爬树和跳跃等动作的人工制导。我国在电子生物体的研究上也有突破性进展,南京航空航天大学就研究了一种壁虎的人工控制技术,即把微电极植入壁虎体内,通过电刺激模拟神经控制其运动。而通过“提取法”制得的生物电子体就更复杂些,比较有代表性的是英国科学家推出的一个由老鼠的脑组织控制的机器人,名为“戈登”。在该项研究中,科研人员先从老鼠身上分离出神经细胞,放置在酶溶液中,让这些神经细胞彼此分离,然后再将这些神经细胞置于营养丰富的培养基中。该培养基与一个拥有60个电极的电子矩阵相连接,这个电子矩阵就是活体脑组织和机器部件的接合面。通过电子矩阵,“戈登”大脑发出电子脉冲,驱动机器人轮子,同时也能接受传感器基于外部环境刺激发出的脉冲。由于“戈登”的大脑是活的组织,因此必须装在温度特定的器具中。除了自身大脑外,“戈登”不受任何人为和电脑的控制。“戈登”具有一定的学习能力,比如撞到墙时,它就会从传感器得到电子刺激,再次遇到类似情况时,它就会记住。但是,如果没有外界刺激,“戈登”便会在数月内因大脑萎缩而死亡。尽管如此,“戈登”仍是实现提取活体脑组织和电子部件结合的研究新突破,也是电子生物体的重大突破。
擅长自学的人工大脑
开发人工大脑就是从信息处理切入,结合脑科学研究大脑对信息流的获取、存储、联想(提取)、回忆(反馈)等处理逻辑,以及脑神经细胞的工作原理来为大脑建模的过程。我们都知道,大脑不是计算机,不会亦步亦趋、按部就班地根据输入产生输出,大脑是个极其庞大的记忆系统,真正了解人类大脑,构建出大脑的记忆-预测系统模型才能制造真正的智能。人工大脑其实早在20世纪末就出现了,日本京都先进电讯研究所率先研制了一只机器猫,该机器猫的脑部主要采用了人工神经网络技术,包含约3770万个人造神经细胞,尽管数量与人脑的1000亿个脑细胞相比差之甚远,但其智能超过了昆虫,实现了人工大脑开发的第一步。紧接着,比利时便研制出了能让机器人拥有数百个行为能力的人工大脑。然而,这些人工大脑都是基于传统的计算机设计和制造思路开发的,与人脑的工作模式有着本质的区别,因此,改变传统的设计思路,是未来研究人工大脑的必经之路。
目前,走在研究人工大脑技术前沿的是几大信息技术巨头,其中IBM和谷歌的研究成果尤为突出。IBM的研究人员研制出了第一代神经突触计算机芯片,这种芯片可以模拟大脑的认知活动,完全不同于计算机设计与制造的传统理念。研究人员通过先进算法和硅电路,再现了发生于大脑中神经细胞和突触之间的现象。未来,IBM将进一步开发认知运算芯片,并将以混合信号、类比数位以及异步、平行、分布式、可重组的特制容错算法,来复制大脑的运算单元、神经元与突触之间的活动。
近年来,谷歌将大量资金、人力投入人工大脑研究中,并成功开发出了模拟人脑并具备自我学习功能的“谷歌虚拟大脑”。“谷歌虚拟大脑”是模拟人脑细胞之间的相互交流、影响而设计的,通过模拟人脑中相互连接、相互沟通、相互影响的“神经元”,由1000台计算机、16000个处理器、10亿个内部节点相连接,形成一个“神经网络”。当有数据被送达这个神经网络的时候,不同神经元之间的关系就会发生改变,这种关系的变化使得该系统对某些特定数据形成反应机制,从而让系统具备学习能力,并且能够在新输入的数据中找出与学到的概念相对应的部分,以达到识别的效果。这个有着自学功能的虚拟大脑系统在人工智能领域有着划时代意义,研究人员无需预先输入某一概念,它就可以自己决定关注数据的哪部分特征,注意哪些模式,从而自动从输入的大量数据中“领悟”这一概念,这与人脑的学习过程十分相似。
智能软件不止于围棋
所谓智能软件,是指能够产生人类智能行为的计算机软件。智能软件与传统软件最重要的区别就是:智能软件具有现场感应和环境适应的能力,还有表示、获取、存取和处理知识的能力,同时还能够采用人工智能的问题求解模式来获得结果。自从计算机诞生后,软件的设计开发便一直落后于硬件生产水平的发展,智能软件更是无从谈起。直到20世纪末,作为现实世界高水平的抽象――Agent软件系统的诞生,才大大加快了智能软件的开发。很快,基于Agent的实时道路交通导航系统模型、面向Agent的巡航导弹武器控制系统和多Agent敏捷调度系统相继被开发出来。目前,基于Agent的软件设计与开发已经成为人工智能学科的重要内容之一,而如何在软件设计与开发中更好地体现Agent的自治性、交互性、协作性以及可通信性等,又使智能软件的设计与开发成为了人工智能学科的新挑战。
如今,对于智能软件的开发正处于如火如荼的阶段。比如,击败李世石的“阿尔法围棋”便是一款智能软件,这款智能软件最重要的特征就是“深度学习”。深度学习的主要原理就是用一层神经网络把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。这就意味着“阿尔法围棋”会在与围棋高手的较量中不断提高自己的棋力。“阿尔法围棋”的另一个重要特征就是它具有两个不同的神经网络大脑:一个是“监督学习的策略网络”,负责观察棋盘布局试图找到最佳的下一步,相当于“落子选择器”;另一个是“价值网络”,负责评估棋局的整体局面并预测双方胜负,从而辅助落子选择器,这个叫“棋局评估器”。在“两个大脑”的配合下,“阿尔法围棋”击败了围棋界顶级高手,这绝对是人工智能的大突破。此外,智能软件还在环保、商务和医疗等领域崭露头角。我们知道,现在空气污染备受关注,西门子中央研究院便开发了基于神经网络的空气污染预测软件。该软件利用了伦敦市遍布中心城区的约150 座监测站收集的包括湿度、太阳辐射、云层覆盖和温度等天气数据和一氧化碳、二氧化碳和氮氧化物等气体的排放测量数据,并将这些数据相关联。同时还将诸如工作日、周末、假期、展会和体育赛事等影响交通和污染物排放的活动编程到预测模型中,最终这款智能软件能够每小时预报伦敦市内150 个地点未来 3 天的空气污染程度,误差率不超过 10%,并且还可以推断出导致所预测空气污染的主要原因。另外,现在还出现了许多商务智能软件,主要就是通过分析销售额、客流量、库存、人员配置等所有和企业运营相关的数据来显示和预测市场波动、经济趋势等,并为决策者提供未来的规划和方案。例如,美国的某公司开发了一款餐厅绩效管理智能软件,这款软件可以计算出每个轮班期间的最佳人员编制。总之,智能软件的开发已经并将继续影响整个社会的方方面面。
家庭机器人走入百姓家
关键词: 人工智能;研究现状;发展趋势;社会力量
Key words: Artificial Intelligence;research status;development tendency;social force
中图分类号:TP18 文献标识码:A 文章编号:1006-4311(2013)28-0005-03
0 引言
人工智能是自1956 Dartmouth学会后发展起来的新型学科,其有着涉及学科广、需要技术高端、使用范围广等特点。在过去的50多年时间中人工智能经历了学科发展中都会遇到的发展——否定——否定的否定阶段,现在人工智能大致分成了符号主义学派、行为主义学派、联结主义学派三大学派。其各有优势,独树一帜。一直以来重大前沿科学研究都是以国家牵头,等到时机成熟了再转为民用。这样无形中浪费了很多社会中的人才,比如android智能机的问世,当开发商源代码公布后android智能机获得了飞速的发展。这是社会资源集体作用的结果,人工智能能否通过这种方式获得飞速的发展呢,文中给出了问题的答案。
1 人工智能的现状
1.1 人工智能的发展过程 人工智能是由“人工”与“智能”组成。“人工”十分容易理解,也就是我们常说的人类开发研究出来的事物。“智能”则是十分复杂的一个词汇,是指如由意识(Consciousness)、自我(Self)、思维(Mind)(包括无意识的思维(Unconscious_mind))等等组成的有机集合。通常我们所说的人工智能是指人本身的智能。总体来说人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。关于人工智能的传说一直可以追述到埃及,直到电子计算机的问世才使人们真正具备了发展人工智能的基本技术,而直到1956年的Dartmouth学会之后“人工智能”才逐渐地被大家所熟知接受。人工智能作为一门自然科学、社会科学、技术科学交叉的边沿学科,涉及哲学和数学,认知科学,心理学,神经生理学,计算机科学,控制论,不定性论,信息论,社会结构学,仿生学与科学发展观等众多前沿学科。二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能),也被认为是二十一世纪(基因工程、纳米科学、人工智能)三大尖端技术之一[1]。
人工智能在其过去的50多年时间里,有了长足的发展,但并不是十分顺利。目前人们大致将人工智能的发展划分成了五个阶段:
第一阶段:萌芽期(1956年之前)
自古以来,人类一直在寻找能够提高工作效率、减轻工作强度的工具。只是受限于当时的科学技术水平,人们只能制作一些简单的物品来满足自身的需求。而人类的历史上却因此留下了很多脍炙人口的传说。传说可以追溯到古埃及时期,人们制造出了可以自己转动的大门,自动涌出的圣泉。我国最早的记载是在公元前900多年,出现了能歌能舞的机器人。这一时期出现了各种大家:法国十七世纪的物理学家、数学家B.Pascal、德国十八世纪数学家、哲学家Leibnitz以及二十世纪的图灵、冯·诺伊曼等。他们为人工智能的发展做出了十分重要的贡献。
第二阶段:第一次期(1956年-1966年)
1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在Dartmouth学会上引发一场历史性事件——人工智能学科的诞生。Dartmouth会议结束后,人工智能进入了一个全新的时代。会议上诞生了几个著名的项目组:Carnegie-RAND协作组、IBM公司工程课题研究组和MIT研究组。在众多科学家的努力下,人工智能取得了喜人的成果:1956年,Newell和Simon等人在定理证明工作中首先取得突破,开启了以计算机程序来模拟人类思维的道路;1960年,McCarthy建立了人工智能程序设计语言LISP。此时出现的大量专家系统直到现在仍然被人使用,人工智能学科在这样的氛围下正在茁壮的成长。
第三阶段:低谷发展期(1967年-八十年代初期)
1967年之后,人工智能在进行进一步的研究发展的时候遇到了很大的阻碍。这一时期没有比上一时期更重要的理论诞生,人们被之前取得的成果冲昏了头脑,低估了人工智能学科的发展难度。一时之间人工智能受到了各种责难,人工智能的发展进入到了瓶颈期。尽管如此,众多的人工智能科学家并没有灰心,在为下一个时期的到来积极的准备着。
第四阶段:第二次期(八十年代中期-九十年代初期)
随着其他学科的发展,第五代计算机的研制成功,人工智能获得了进一步的发展。人工智能开始进入市场,人工智能在市场中的优秀表现使得人们意识到了人工智能的广阔前景。由此人工智能进入到了第二次期,并且进入发展的黄金期。
第五阶段:平稳发展期(九十年代之后)
国际互联网的迅速发展使得人工智能的开发研究由之前的个体人工智能转换为网络环境下的分布式人工智能,之前出现的问题在这一时期得到了极大的解决。Hopfield多层神经网络模型的提出,使人工神经网络研究与应用再度出现了欣欣向荣的景象。人工智能已经渗入到了我们生活的方方面面。
1.2 人工智能的主要学派 人工智能发展的50多年时间里,经历了符号主义学派、行为主义学派和联结主义学派,三大学派各有特点,各自从不同的角度研究人工智能,为人工智能的发展做出了卓越的贡献,在人工智能的发展史上留下了浓重的一笔。
1.2.1 符号主义学派 符号主义学派,又称为逻辑主义、计算机学派或心理学派。符号主义学派理论基础是物理符号系统假设和有限合理性原理,他们认为人类的认知基元是符号,认知的过程是对符号的计算与推理的过程。人与计算机均可以看做物理符号系统,因此人们可以使用计算机来模拟人的行为。符号主义学派认为人的认知基元可以通过计算机上的数学逻辑方法表示,然后通过计算机自身的逻辑运算方法模拟人类所具备的认知系统的机能和功能,进而实现人工智能[2]。
符号主义学派无视了认知基元的本质,对于所有的认知基元均使用数学逻辑方法表示。符号主义学派重点研究认知基元的逻辑表示以及计算机的推理技术,早期的众多人工智能的研究都是在这一思想的推动下进行的。符号主义学派在归结推理、翻译、数学问题证明以及专家系统和知识工程做出了十分巨大的贡献,为后期的人工智能研究打下了基础。专家系统的出现更是将人工智能的研究推上了一个顶峰,其在矿业探究、医疗诊查、教育推广、工业设计的应用带来了巨大的社会效益。
1.2.2 行为主义学派 行为主义又被称作进化主义或控制论学派。行为主义学派认为智能取决于感知和行动,不需要像符号主义学派的逻辑知识以及推理。行为主义学派认为人的本质能力是行为能力、感知能力和维持生命及自我繁殖的能力,智能行为是人与现实世界环境的交互作用体现出来的。人工智能应像人类智能一样通过逐步进化而实现,而与知识的表示和知识的推理无关[3]。行为主义学派的与传统人工智能截然不同的观点吸引了众多的科学家,虽然到现在还没有独立完善的知识理论系统,但其在人工智能领域的独树一帜还是奠定了其霸主地位。该学派重点研究人类的控制行为,目前已有的机器昆虫已经证明了行为主义学派的理论正确性。虽然大部分人认为机器昆虫不能导致高级行为,但是行为主义学派的崛起标志着控制论在人工智能领域有着独树一帜的作用。
1.2.3 联结主义学派 联结主义学派是近年来最热门的一个学派,又被成为仿生学派或心理学派,建立于网络联结基础之上模仿人类大脑的结构和工作模式。联结主义学派主要研究能够进行非程序的,可适应环境变化的,类似人类大脑风格的信息处理方法的本质和能力,是基于神经网络及网络间的连接机制和学习算法的人工智能学派。持这种观点的学者认为,认知的基本元素不是符号是神经细胞(神经元),认知过程是大量神经元的联接,而大脑是一切智能活动的基础,因而从大脑神经元及其连接机制出发进行研究,搞清楚大脑的结构以及它进行信息处理的过程和机理,就有望揭示人类智能的奥秘,从而真正实现人类智能在机器上的模拟。[4]
联结主义学派通过模拟人类神经网络模仿人类的认知行为,由此进行人工智能的学习记忆、模式识别。联结主义学派构建了大量的神经网络模型,方便在不同的情景模式下选择相应的模型,进而快速的得出答案。联结主义学派采用分布式存储数据,对数据进行并行处理,这样使得人工智能在处理问题的时候的速度有了明显的提升,由此联结主义学派在人工智能领域中受到大家的一致热捧。
三大学派在人工智能的发展史上有着举足轻重的作用,每一个学派的兴起都代表人工智能的一个新高峰。三大学派各有优缺点,在人工智能领域三者相辅相成,人工智能学科在三大学派的带领下正在茁壮成长。
2 对人工智能主要理论学派的评述
在过去的50多年时间中,人工智能获得了巨大的发展,基本实现了从无到有的过程,构建了基本完善的理论知识体系,构建了各种模型,形成各种技术方法,但是人工智能的发展依然任重道远,前景依然不容乐观。三大主义学派有着自身独到的优点,同时也有着各自的缺点,符号主义学派将人的认知基元符号用数学逻辑表示,通过计算机逻辑处理系统分析得出结果,但是在面对没有明确结果的非确定问题时经常不能得出令人满意的答案,它对信息要求十分精确完整,现实生活中的很多问题都不能满足条件,因此符号主义学派的发展受到了一定的限制。行为主义学派认为智能取决于感知与行动,但是缺乏足够的理论知识支撑学派观点,而且缺乏足够的成果表明理论的正确性。学派认为人工智能与知识的表达和知识推理无关,与人类认知的发展是不相符的。联结主义学派采用仿生学的方法,模拟人脑的神经网络,通过类似人脑的结构和运行机制模仿人类智能。这一观点十分有吸引力,在提出之后马上就有大量的支持者,但是人脑神经系统的复杂性远远超出人们的预知,现阶段人们对人脑的构造以及运行机制还没有深入的理解,在此基础上想模拟出人脑的神经系统显然是有些不不切实际。联结主义学派的发展更多的受制于对人脑结构和运行机制的研究,因此其发展相对缓慢。综上,三大学派固然有着自身的优势,各自的成果,但是其同样有着明显的局限性,人工智能要想进一步发展必须要对现有的发展方式进行创新。
另一方面,人工智能在经历了两次期后再次回落到了平稳发展时期,社会公众对人工智能的热度有了明显的降温。人工智能的研究再次变成了国家以及一些超级公司的工作,拥有的资源有了大幅度的缩水,研究的进度也受到干扰。在此状态下没有重大的技术创新,人工智能恐怕很难再有重大的突破。
3 对人工智能发展的评述
3.1 对人工智能涵义的认识 同样的词汇在不同时期的有着不同的解释,人工智能也不例外,大家都认可的人工智能是指在人类制造的机器工具上实现人类智能,即实现人类的认知能力、行为能力以及解决问题的能力。人类智能有着一个明确的特点,在面对未知问题时,人类智能能够得出自身想要的答案,也就是消除答案的不确定性。符号主义学派的逻辑解决方式、行为主义学派模拟人的行为能力、联结主义学派的神经网络,三大主义学派各自以自身的方式实现了对问题消除或减弱不确定性。可见减弱甚至消除问题的不确定性也将是人工智能的一个研究方向。
3.2 人工智能研究模式的发展 目前人工智能领域中,符号主义学派通过数学逻辑表示人类的认知基元,对数学逻辑经过解读分析,得到答案,进而实现智能。该学派重点运用还原思想,将人类的认知基元全部使用数学逻辑表示。行为主义学派认为人工智能取决于感知和行动,不需要学习知识与知识推理,是一步步,由低级到高级慢慢进化的。联结主义学派是通过人工神经网络的形式模仿人类智能,理论上讲该方法是最符合人类智能的运行方式的。而在一系统中,最重要的是系统的运行机制,如何将接受到的信息转化为我们的知识并通过表述、行为展示出来,在了解了人类智能的运行机制之后,人工智能将会更加符合人们的需求。
3.3 人工智能研究方法的发展 人工智能的目的是消除答案的不确定性,然后做出相应的反应。在消除答案不确定性的时候便有了各种方法,其中有一种便是突出解决问题的目标,在有明确目标的前提下会削弱干扰问题解决的条件,提高人工智能解决问题的效率。明确问题的目标便需要引入目标函数,在动态目标函数的引导下会减弱答案的不确定性。而在已有的人工智能基础上设立人工智能模型,通过人工智能自身的计算结果结合目前的研究成果去优化目前的人工智能系统,则会提升人工智能的发展速度。
3.4 人工智能时期的发展 人工智能自发展到现在已经经历了五个时期,在两次期中人工智能均获得了迅速的发展。然而现在人工智能的发展步入到了缓慢发展时期,如何将人工智能的发展缓慢时期加速度过同样是十分严肃的问题,传统说来需要重大的科学进步。我们往往认为人工智能属于顶端科技只能由国家和超级公司研究,却忽略了社会所拥有的重大的力量。小小的android智能手机在问世的短短时间内变改变了之前的市场格局,其中固然有着android智能手机的特点,但是我想他的市场策略同样给与了莫大的助力。人工智能应该向android一样,适当的开放出来一部分根基,放开其研究门槛,甚至鼓励民间研究。量变引发质变,当有足够专家在研究人工智能时,人工智能的研究会加快的。而且民间的研究成果也会作为经验反作用于人工智能的进一步研究,实现科学与社会的双赢。
4 结论
人工智能是人们长久以来的梦想,同时也是一门很有挑战性的学科。像所有的学科一样,人工智能会经历各种各样的挫折,但是,只要我们有信心、有毅力,我们相信人工智能终将会成为现实,融入到我们生活的方方面面,为我们的生活带来极大的改变。
参考文献:
[1]朱祝武.人工智能发展综述[J].中国西部科技,2011,10(17):8-10.
人工智能(AI)[1]是计算机科学的重要分支,是计算机科学与技术专业的核心课程之一。本课程在介绍人工智能的基本概念、基本方法的基础上,主要是研究如何用计算机来模拟人类智能,即如何用计算机实现诸如问题求解、规划推理、模式识别、知识工程、自然语言处理、机器学习等只有人类才具备的“智能”,本课程重点阐明这些方法的一般性原理和基本思想,使得计算机更好得为人类服务。
1人工智能课程体系
人工智能主要研究传统人工智能的知识表示方法,包括状态空间法、问题归约法谓词逻辑法、语义网络法、框架表示、剧本表示等;搜索推理技术主要包括盲目搜索、启发式搜索、消解原理、规则演绎算法和产生式系统等。
人工智能的研究论题包括计算机视觉、规划与行动、多Agent系统、语音识别、自动语言理解、专家系统和机器学习等。这些研究论题的基础是通用和专用的知识表示和推理机制、问题求解和搜索算法,以及计算智能技术等。
人工智能课程在我校计算机科学与工程学院是作为大三年级的一门专业选修课开设,总共学时数为:60(其中理论学时为36,实验学时为24),随着计算机技术的不断更新发展,人工智能的应用领域变得越来越广,因此人工智能(AI)这个学科已不再陌生,很多学生对其充满兴趣,所以在选课人数上远远超过其他选修课的人数,另外结合我校的实际情况,部分理论或实验设计项目可以与其他相关专业结合起来而应用。
2人工智能教学实践
50多年以来,人工智能获得很大的发展,已经引起众多学科和不同专业背景学者们的日益重视,成为一门广泛的交叉和前沿科学,但是到目前为止人工智能至今仍尚无统一的定义,要给人工智能下一个准确、科学和严谨的定义也是困难的。
由于人工智能[2]是一门交叉性的学科,涉及到了控制论、语言学、信息论、神经生理学、心理学、数学、哲学等许多学科。所以该学科具有知识点多、涉及面广、内容抽象、不易理解、理论性强、需要较好的数学基础和较强的逻辑思维能力等特点,导致了在教学过程中老师讲得吃力、学生听得吃力。尽管在多年的教学过程中积累了一些经验,但是对于如何把握这门课程的特点,提高学生的学习兴趣,帮助学生更好的理解这门课程,目前仍然有很多问题需要研究解决。
目前在整个教学过程中存在的主要问题[3]是:
1) 教学内容陈旧,部分参考书相关内容或案例都过于陈旧。在整个教学过程中,多数教学案例涉及到人工智能理论的高级应用――机器人,目前在国际及国内机器人的水平已经达到相当高的水平,但是部分教科书中仍沿用关节型机器人为例,教学内容稍显陈旧。
2) 教材难易程度不均匀,部分章节学生难以理解。由于人工智能课程的部分章节,本身就可以独立成一门课程,但由于是面向本科生的内容,因此很多内容压缩于一章来讲解,同时由于课时所限,完全不能将相关的内容讲透讲通;例如:神经计算中的神经网络,与模糊逻辑控制的相关理论与应用。
3) 教学手段单一,教学过程中缺乏师生之间的沟通与交流。经过自己的实践教学及对兄弟院校的人工智能的教学内容与教学手段的调研,同时也在学生之间进行沟通交流,发现多数同学反映,理论与应用虽然前沿,但是在学习过程中,教师教学手段单一,内容枯燥乏味,一般的教学模式,多采用“老师讲,学生听”的方法,整个教学效果并不理想。
4) 考核方法不科学,不能体现学生实际的学习情况。目前对于课程学习的考核采用闭卷考试的方式,很多考点有的同学根本不理解,完全死记硬背,考后又将内容丢弃,从学习的效果来讲,收获甚微且完全没有达到真正学习及应用的能力。
3教学方法改进
3.1注重激发学生的学习兴趣
科学家爱因斯坦曾说过:“兴趣是最好的老师。”如何在教学工作中激发和培养学生的学习兴趣,提高他们学习的主动性和积极性是当前教学改革中迫切需要解决的重要问题。
在实际的课堂教学中发现,刚开始听课由于有兴趣学生整体学习的积极性很高,但是一段时间过后发现部分学生由于教学内容抽象,难点比较多,不便于理解,兴趣日渐变少,针对此种情况,可以采用任务驱动式教学或案例教学。
例如:在讲专家系统章节时,在授课之前先通过互联网,采取案例教学法,给学生们实时在线演示一个医疗专家诊断系统,演示其中的功能,同时与学生互动,以问答式与学生互动,了解目前专家系统的具体应用、可以解决的问题、给人民生活带来的益处等。通过这种教学的形式,一方面可以激发学生的学习兴趣;另一方面也使同学们体会到人工智能与我们生活的贴近程度。第二步,采用任务驱动法,具体来说,它是指教学全过程中,以医疗专家诊断系统若干个具体任务为中心,通过完成任务的过程,介绍和学习基本知识和具体设计方法。
3.2注重教材选择
这一任务的执行者主要是由教研室主任或任课老师来完成。目前在各高校中所使用的人工智能相关教材的种类繁多,章节和内容的设置上也存在差别。笔者在订阅教材或参加教材展销的活动中,都比较重视人工智能教材的情况,通过比较发现,有的教材内容及难度太低,完全不符合高等本科院校的要求,而部分出版社的教材则是内容及章节安排内容太多太泛,有些知识点讲的又过于深奥,限于学时所限也不适合选用。在选教材方面,除了关注内容方面外,还要注重书上所讲的一些实例,注重这些例子的典型性、时效性及新颖性,例如,部分教材在自动规划这一章,选用机械手作为例子来说明积木世界的机器人规划问题,还有一些选择关节机器人,前些年这样的机器人技术确实是个难点,但是依据现在成熟的机器人技术,无论是国际还是国内都已不再是技术难点,再拿这个例子去配合理论去讲解,无论内容还是形式都稍显陈旧,目前机器人技术发展水平基本上达到尽可能高仿真状态。
3.3运用现代化的多媒体教学手段
针对人工智能课程相关内容比较抽象,公式推导比较繁琐,除了具有完善的教学大纲、合理的教学计划以及好的教材外,还应该根据学校的实际硬件条件尽可能地选择多媒体教学手段来辅助教学。因此在实践教学中,配合教学内容,充分利用计算机、投影仪以及互联网的优势,结合多种教学方法与手段组织整个教学过程。例如:在讲述搜索推理技术时,使用一些小的演示软件,将相关推理技术的理论通过动画的形式一步一步演示出来;在讲专家系统相关理论知识时,尤其是各种类型的专家系统,采用互联网上的一些在线视频资源为例,给同学进行详细讲解,同时结合农业院校的特点,在线资源有如农业专家系统或动物专家诊断系统等,这样学生可以加强对理论知识的理解,同时也体会到理论不再是抽象空洞的文字描述;在自动规划这一章,给同学们选择演示发达国家目前研制的各种类型机器人,通过这些形象生动、行为举止逼近真实人的机器人来给学生讲理论,这样学生通过观看视频资源,不仅可以拓宽知识面及视野,同时也可以及时地了解国际及国内机器人的发展水平及差距,不断更正自己的错误观点并更新自己新的专业认识,另一个方面也可以同时激发学生们的学习热情和积极性,这一点在课堂实践教学中得到验证,得到广大同学的认可和接受,整个教学课堂不再那么单调枯燥呆板了,基本可以达到在娱乐中传授专业知识。
3.4加强对实验教学的重视
目前高校在人工智能的教学过程中,实验所占的学时比较少,有的甚至就不安排实验课学时;另外实验内容也相对比较简单,应用不到理论课堂上所学到的人工智能原理,实验效果不是很好。面向人工智能课程的程序设计语言,多采用Prolog程序设计语言,该语言是一种基于一阶谓词的逻辑程序设计语言,它在AI和知识库的实现技术方面具有十分重要的作用,具有表达力强、表示方便、便于理解、语法简单等优点。但在整个实验教学环境也遇到了如下问题:首先是目前有关人工智能的专门配套实验教程很少;其次是即使有诸如《面向人工智能程序设计Prolog》教程,则主要是侧重介绍这门自然语言的程序设计,而其中很多部分与AI实验环节关联度不大,另外教材价位也比较高。针对此种情况,笔者在24个学时的实验教学过程中,安排7个实验内容,其中最后一个专家系统的设计与实现作为一个综合性实验来设计。在进行实验教学的过程中,首先参考多本Prolog程序设计教程,选择其中与实验教学计划中相关的内容,专门编写相应的电子教程,同时也结合我校学生本身的特点[4],有侧重地体现和编写,总的目的是给学生一份完整的、系统的、规范的电子教程。这样做的目的是:一方面作为学生参考的技术文档;另一方面也可以节省学生的部分经济开支。电子教程的结构分为三个部分来完成,首先为人工智能理论及原理,Prolog语言的使用说明;其次具体的例子演示(均经过调试正常运行);最后为布置给学生具体的实验内容及相关题目,以提供给学生自己动手实践的机会。此外在实验教学过程中,同时也会给学生们自由发挥的机会,比如专家系统的设计与实现作为一个综合性实验,学生可以采用Prolog编程实现,也可以采用其他自己擅长的程序设计语言,例如有的同学选择C语言、VC++、Visual Basic、Java及网页开发设计语言ASP/JSP等,此外在实验内容方面,实验递交的专家系统涉及多个领域(有动物辨别、医疗诊断、动物养殖咨询等专家系统)、范围也颇广,实验内容重复性很小,在设计过程中,绝大部分同学均是结合自己的兴趣爱好来完成设计。
4结语
人工智能的研究成果将能够创造出更多、更高级的智能“制品”,并使之在越来越多的领域超越人类智能,同时将为发展国民经济和改善人类生活做出更大的贡献。作为一名当代的大学生有必要学好这门课程,但是根据实际教学情况,教师与学生仍然需要继续进行相应的研究与发展,只有不断地探索和提高,才能使我们的教学工作更上一层楼,才能培养出符合时代和社会需求的人才。另外人工智能与农业等方面存在很多结合应用的契机,这样计算机就可真正地服务于社会、服务于人类、服务于农业、应用于农业、发展农业。
参考文献:
[1] 蔡自兴. 人工智能及其应用[M]. 3版. 北京:清华大学出版社,2007.
[2] 陈峰,文运平. 浅谈人工智能课程的教学[J]. 消费导刊,2006(12):123.
[3] 赵蔓,何千舟. 面向21世纪的人工智能课程的教学思考[J]. 沈阳教育学院学报,2004,6(4):131-132.
[4] 王莲芝. 高等农林院校人工智能教学的探讨[J]. 高等农业教育,2003(12):64-65
Study of the Artificial Intelligence Teaching Methods
HAN Jie-qiong1, YU Yong-quan2
(1. School of Computer Science and Engineering, Zhongkai University of Agriculture and Engineering, Guangzhou 510225, China;
但是,迄今我们也没有见过一个真正的外星人。实际上,我们甚至从来也没搞清楚真正的外星人是否存在。
最近,天文学家已经在银河系中与我们邻近的区域内发现几千颗行星。因此,关于在宇宙中存在智慧生命的观点由科幻的范畴转而变得具有科学合理性了。望远镜可以随时接收信号,也许能告诉我们外星人是否就在那里。
它们会是什么样子的呢?
真正的外星人是否真的像电影里描绘的那样,是一群有着光滑皮肤的人形生物?在经过简单的生物工程方面的辩论
后,现在我们认为,拥有两个眼睛、直立行走、拥有灵活的四肢,应该对任何活动的智慧生物来说都是合乎情理的。因此,在外星人的长相上,一些生物学家已经站在了好莱坞这边,声称生物趋同进化的过程将确保这些外星人可能多多少少与我们有几分相似。所谓趋同进化,是指生物在进化过程中为适应功能而呈现出表型上的相似性。
这一论点简直是在向好莱坞溜须拍马,它根本没有考虑到至关重要的一点,那就是更有可能出现的情况是,最先进
的外星文明将是一种特殊的、被称为“超级智能”的人工智能(“A.I.”)。“超级智能”的综合认知能力将在各个方面(诸如社交能力、一般性智慧、科技创新等方面)大大超越人类能够达到的巅峰状态。
我们觉得这种“超级智能”很可能是现实,是基于对人类自身不久的将来的认知,因为我们人类可能已经接近于开
发出我们自己的“超级智能”了。能够制造出这样的机器,可能是21世纪最具变革性的事件,甚至可以说是人类历史上最具变革性的事件了。这种“超级智能”的诞生,也许就像3.7亿年前陆生动物的出现一样,是自然进化过程中自然而然的一步。
以此类推,我们猜想,如果某种智能生命创造出星际间交流的手段,那么,它们也许只需要几百年时间就能将它们的感知模式由生物学模式改变为“人工智能”模式了。
考虑到宇宙的年龄,这些外星人制造出的可以思考的机器,可能要比我们的先进几百万甚至数十亿年。它们中的一
些,可能已经通过对自己的身体进行生物强化的方式成功地实现了“超级智能”。根据我们的推测,其中的大多数只需过渡到以硅为基础的生命形式,而不是继续保持以碳为基础的生命形式,即可实现“超级智能”。
事实上,与大脑相比,硅看上去似乎是一种更好的信息处理介质。神经元的数据传输速率峰值约为200赫兹,这比我们当前的微处理器低了大约7个数量级。虽然生物大脑能够以高效的算法和大规模的并行计算来补偿神经元的缓慢,但是,更快的硅系统可以借用生物大脑的这些设计特点,甚至对其做出更进一步的提高。
此外,更值得关注的是,在人类的大脑中,审议思维慢到令人难以置信的地步。在处理审议思维时,人类大脑最多只能对大约7个信息块进行处理。大脑中神经元的数量会受到颅容量和新陈代谢的限制。相比之下,计算机可以占据整座城市,甚至占据多个行星。而且,它们还可以从能够将生命一扫而空的环境灾难中存活下来。
一旦有了开始,智能设备就能够建造它们自己的后代。而后,这些经过改进的、有知觉的机器就可以去设计新一代的智能机器,而且,这一场景可能已经在宇宙的历史中不止一次地上演过了。这一过程的展开将会非常快,以至于宇宙中现存的大部分智能都是制造出来的,而非天生的。真正的外星人绝对不可能是变形虫的样子。
即便我们错了,大多数的外星文明都是生物文明,那么,考虑到以硅为基础的生物是一种更为持久的生命系统,它们几乎可以说是不朽的,所以它们也更有可能从事太空旅行。如果我们真的能碰到任何地外智能生物的话,我们第一次碰到的很可能就是它们。
对于这些能够思考的机器,我们该如何评论呢?它们的所思所想,以及它们的兴趣会不会和我们一样呢?
我们猜测,不管是通过扫描它们的大脑,将其中的内容传输到计算机,还是以硅元件慢慢取代它们的部分大脑(这
两种方式都相当于将生物大脑中的信息“上传”至“机器大脑”中),总之,许多外星文明已经达到了“后生物”文明时代。如果我们的猜想是正确的,那么它们的思考方式可能与衍生出它们的生物外星人相似,虽然它们思考起来要快得多,而且是以一种增强的方式。这样会使它们解决问题和发展技术的能力远远超过它们的生物祖先所能企及的地步。
生物智能已经进化出了生存和繁殖的技能。而它们的“硅后代”可能继承它们的主要生存动机,如寻找食物、避免受伤、繁殖、合作等。如果这些外星人事实上仍然对繁殖感兴趣的话,那么我们可以预料的是,考虑到可供它们使用的巨大计算资源,它们将有可能创建出装满了人工生命,甚至是其他超级智能的模拟宇宙。如果这些模拟人类想要成为外星人的“孩子”,那么它们可能也要保留这些相同的基本目标。
你可能会提出反对意见,认为从理论上推导出有超级智能的外星人毫无用处,因为它们可能以数不清的、不可预见
本文将从佛教世界观的本源出发,探讨如何在人工智能中植入具有自主导向功能的认知能力,进而讨论佛教世界观与人工智能自主意识方面相关伦理问题的交叉融合,并深入探究机器人是否可以设计成具有自我进化能力、具备同情心和高智商的智能体。
一、佛教世界观的人工智能的
伦理表征
佛教世界观的核心是否定灵魂,拒斥自我。佛教
世界观认为,从苦楚中获得解脱的方式是合理的,它体现了人类自身心理冥想的一个过程,直到他确信这是一个短暂、瞬息的自我错觉。而如何认识到这一错觉,在佛教经典《阿毗达摩》中,谈到了对于人性精神元素的各种分析以及与此相联系的有关痛苦和解脱的方式。它认为打破这一心理错觉的方法很多,但最为根本的是被称为五蕴的色、受、想、行、识,即:色蕴、受蕴、想蕴、行蕴、识蕴。
五蕴通常被看作是具有因果性的一种解释。佛教世界观认为这种因果性的存在正如一个火苗从一根蜡烛传递到另一根蜡烛,虽然这两个火苗有因果联系,但却不能说这是同一个火苗,也就是说五蕴具有独立性。因此,就出现了这样一个问题,意识的成分是否能够分解?佛教世界观认为意识需要以相互联系的五蕴为基础,如果其中一个丢失,那么就可能导致脑损伤或使冥想误入歧途,从而使得意识终止。例如,植物人就有可能表达了这样一种状态,它身体的某一部分感觉或预知能力存在,但却没有意识或意愿。这一在神经科学中面临的问题也恰恰是人工智能设计过程中所需面对和解决的。
在五蕴中,我们认为物理对象或虚拟对象均与某项感官联系,而人工智能自身即是一个虚拟的对象,它有助于提升人类对某一物理现象的相关感官,揭示客观世界的结构和本质。关于虚拟对象我们从Goertzel的一个实验进行介绍,“如果我们创造一个虚拟的世界来支持简单的物理现象,那么我们很有可能会得到这样的一个结果,也就是人类把人工智能融合
收稿日期:2013ㄢㄢ1;修回日期:2014〢4ㄢ5
基金项目:国家社科基金重点项目“基于逻辑视域的认知研究”(11AZD056)
作者简介:王东浩(1982),男,河北衡水人,南开大学哲学院博士研究生,主要研究方向:科技哲学,逻辑学
进生活中,并在生活中改善人工智能的设计,通过人工智能与人类活动之间的交叉融合,最终有助于提升人工智能关键部位的感应”。[2]换句话来说,像人类思考那样,人工智能需要的是自身与物理世界的交互,从而使得其具有与人类相类似的诸如目标、因果性、状态、界面以及界限方面的感官经验等。这一观点与佛教认识论的思想类似,即由感官数据而形成的第一直觉对于意识的发展是关键和必要的。Francisco Varela称这种感官上的表现为自我创生、自我组织[3](476)。这一自我创生结构具有限定的范围和内部运行程序,并能够实现有机体的自我维护。但这仅仅是感官领域一个随意的发生过程:“这里的自我是完全虚拟的,它只是为交互作用提供了一个界面,但由于人们不能准确地把握它,因而对它的认识也是虚幻和不确定。”[4](209㈢22)正如这样一种情况,人们通过显微镜观察原子结构和量子泡沫的时候,通常存在物会以一种类似幻觉的形式出现,这种把实体物与幻觉分离的感觉是一种虚幻的“大众心理”,它实际上是通过冥想而实现的。
从佛教的观点来看,这些感官的直接作用是引起人们的注意,然后形成更为复杂的意志。在Froese与Ziemke看来,“人与智能体在交互过程中经常遭遇困扰,因此有必要在人工智能中建构一个类似于佛教感官的链接,这样有助于实现交互双方的联系。”[3](450)在智能技术发展初期,这一链接主要表现在一些简单的动作上,比如抓住或放下某物,或者表现出较为高级一些的行为,比如对噪声的厌恶情绪,而相对于佛教感官较深层次的链接还没有完全出现。
具备偏好选择、体验认知以及厌恶表征特征的人工智能仅仅是人工智能理论的部分表现。因为大多数人工智能研究的目标并非发展成迥异于人类的个体,而是把人类的特征模型化甚至延展人类认知,创造出可以体现人类思维判断的工具。我们已经创造出可以诊断疾病并与人类医师相媲美的机器人,它们具有一定的认知情绪,并可以进行情感计算。我们知道,在智能体中“情感计算”[5]通常能够判断人类的情感和欲望,这有利于实现人机交互。佛教心理学与智能科学在此具有一致性[6],它们都揭示了情感是人类自主意识和认知得以发展的基本驱动力。
在人工智能领域存在人工智能自身是否应该具有自利的一面或优先权程序的论争。对此,人工智能方面的一些专家认为,人工智能从设计之始就是无私的,它唯一的目标就是服务人类[7]。相反,佛教心理学认为为了研究自我意识的阈值,所有的智能思想都需要从发展自我开始。在佛教世界观中,自我的渴求与幻想的发展是“相互依赖提升的”[8],它们的存在是必要的并且无须解释。因此在佛教认识中,人工智能应该具有自我。
二、佛教世界观在人工智能体设计中的进路
佛教世界观基于对宇宙生命的理解,为佛教思想向智能体思想的转化提供了丰富的内涵。佛教思想根据印度教吠陀世界观,并自由地综合各地教徒所信奉的诸神,从而使得 佛教信仰得以广泛传播。然而,从一开始,佛教对于宇宙本质与起源的介绍都是有目的性的,即强化人类道德行为与超自然现象之间关系的理解。尽管在现实生活中存在写实主义的佛教徒,但是相比于传统基督教,持这种观点的佛教徒还是少数。
传统上,佛教将宇宙中的生命分为三个部分,即欲界、色界与非色界。每个部分都是轮回的。欲界主要指的是在地狱中遭受苦难的饿死鬼、动物、人类、半兽人以及神明。对此,人们通常这样理解:地狱表征的是苦难,饿死鬼表征的是欲望得不到满足,动物表征的是愚昧的化身,半兽人指的是妒忌,神明指的是快乐。[9]相比之下,人类是混合了所有层面的一个综合体,并促使人类思想的发展更多集中在精神层面。在人类范围之下,生命体被太多的苦难、欲望、愚昧困扰以至于道德与心理得不到发展。在人类范围之上,半兽人与神明则因为自利和利他两个极端的存在而 分化。
' 佛教世界观力求把机器思想设计限定在某一情绪或精神层面。大多数伦理体系不赞成设计一款具有自我感知能力的软件。那么人们在道德上能否接受一款与动物情感类似的软件呢?佛教伦理把动物看作是人类道德层面的一部分,因此需要保护它们远离伤害。佛教伦理把动物看作类似于人类的观点,体现了人类道德行为与教化能力的再生。我们可以从佛教经典中看到很多英雄人物或勇于牺牲的行为,他们的化身不乏鹿、猴子和其它一些动物,他们的这些行为促使人类灵魂进一步升华。在佛教徒看来,把人工智能设计为类似于人类的行为是不道德的,这类似于亚里士多德、康德和密尔等人对于设计快乐的机器人奴隶一样令人反感。[10]
在人工智能体思想的设计中塑造一种积极情绪,并把它限定在自我满足的极乐状态,这会促使积极情绪不会向其它不好的情绪或令人厌烦的意识转移。伴随着神经伦理学在美容神经学时代的发展,佛教心理学认为这种存在于自我意识中的快乐元素与由于多巴胺的刺激而出现的享乐状态是不同的。
另外,佛教世界观也经常把实体形式化,并把它描绘成通过冥想即可达到的一种空灵的精神状态。在这一状态下,实体是不存在的,冥想完全是精神的产物。在机器人伦理中也可能存在与此相类似的一些观点。这似乎也是可信的,因为人们有可能把智能体思想设计成能够体验模拟认知并最终达到万物合一或虚空世界的状态。在Robert Sawyer的虚构小说《WWW: Watch》[11]中对此有过描述。它讲到人工智能在一开始受到多重数据信息流的控制,这使得它失去自我意识。在关键时刻,它的人类朋友打破了其中的一些网络链接,并重新使它恢复到某一时间段的某一状态下。Sawyer的虚幻小说在一定程度上佐证了佛教的这一观点,因为在不同冥想的增加和冲击下,智能体自身情感可能难以自持,最终有可能伤害到其它个体。
佛教认识论同样也思考了这样的问题,人工智能体是否会改变自身指令而达到“神的地位”这样危险的状态。对此,那些对超人工智能所引发的危险持谨慎观点的人提出了两个可能的解决途径,其一是严格控制人工智能的发展,以确保人工智能体无法扩展自身能力。这就需要人们解决如何发展高效能的智能体,而它自身又不能学习和成长。为此,这就需要严格管理人工智能的开发者,并能够形成一个统一而有效的人工智能免疫体系,从而控制随时出现问题的人工智能体。
另一个方面是对达到“神的地位”的人工智能进行伦理编码,诸如阿西莫夫的机器人三原则[12]或者“友善的人工智能”[13]。当然,这并非完全复制人类的精神状态并把它强加给机器,因为这样人类很可能会对超人工智能或具有“神的地位”的机器人产生排斥心理。
然而,佛教认识论认为,神明自身也逐渐意识到它们面临的困境,一方面需要超越幻觉状态下的苦难,另一方面又需要强化对冥想的需求。神明的这一困境使他们陷入了漫长的悲苦境地,只有少数聪明者得以逃脱这一束缚,进行宣传佛法的活动。例如,悉达多吠达摩就因为众神的信服而传授佛法、启迪教化世人。佛教世界观也因此希望这种教化方式可以在人与超人工智能之间转移传递,从而解决现存的一些困境。
三、佛教世界观在人工智能体设计中的传承性
佛教世界观中涉及到这样一个伦理问题,也就是传宗接代是否是一种伦理行为?对此,佛教世界观存在两方面不同的认识:一方面,佛教认为传宗接代并非是一项职责,舍离无子女的生活是值得称赞的。正如很多人看到的那样,有子女的成年人丢失了很多的快乐[14],佛教世界观把烦累、孩子与配偶都视作人的附加物,最好是能够避免;另一方面,佛教世界观把传宗接代看作是上天赠予人类的一个礼物,是人类再生的一个表现,而非苦难的开始。如果人们选择传宗接代,那么父母应该谨记下面五项职责(《善生经》):① 劝阻他们不要做恶事;② 教育他们多做善事;③ 对他们进行善行教育;④ 为他们寻求相称的婚姻;⑤ 满足他们继承的权利。
人工智能的出现打破了传统的伦理关系。它把人类置于一个新型的伦理环境中,也就是人类通过机器来创造生命。Metzinger认为在我们不能确定所创造的生命是否长期处于苦难、愚昧、狂喜和其它令人不悦的状态之前,我们创设的人工智能体思想是不符合伦理标准的[15]。换句话说,Metzinger认为,创造与人类相似的具有自我意识但却缺乏学习和成长能力的生命是不道德的。《善生经》使我们认识到机器应该具有这种伦理责任,并能够理解相应的道德观念,或者我们应该培养智能体的这种思想。
这样推测起来,人类的遗传首先应该建立在幸福的婚姻基础上,而后确保这些职责能够实现。那么我们应该把什么遗传给后代呢?一般来讲,在人类伦理体系中,我们希望把最好的遗传因素传递给下一代,那么在机器思想的建构中我们应该如何去做呢?这个问题应该是智能体未来发展所需面对的,如果在认知能力和欲望方面它们具有与人类足够相似的思想特征,那么它们就有可能要求真实的工作与报酬并能够享受生活。但至少从纯理论的角度来讲,我们是否能够给予机器人后代以人类自身复杂的精神架构,以及包含在其中的人类苦难方面的因素?
Savulescu在“生殖的善行”[16]中提到,选择尽可能好的东西遗传给下一代对于生命来说是有益的。佛教世界观从 来没有专注于再生的选择问题上,在它们看来,在确定要后代之后,这一选择就已经是唯一而有效的了。但引申来讲,佛教世界观可能一直确信,如果可以对后代做出选择,父母有责任去选择那些可以实现后代自我的最好方面,并避免那些由苦难、愚昧等控制的不好的方面。同样,Metzinger谈到,在机器思想的创设中,我们应该努力创造那些具有心理感应和情感表征的,有自知之明,能够去学习、成长,并能够实现有意义生活的智能体。
四、佛教世界观在人工智能体设计中的转化和应用
(一) 佛教慈悲心的程序设计
慈悲心和智慧是佛教世界观领域的两个中心美德,神经系统科学也揭示和再创了诱发这一状态的相关因素,并表明人类同情心的根源发端于镜像神经元或者神经细胞。究于此,人工智能的研究者试图把人工镜像神经元在机器人中模型化。例如,Spaak与Haselager试图通过对选择行为的模拟来引入人工镜像神经 元;[17]Barakova与Lourens则试图通过对镜像神经元进行编码以此促使机器人与人类同步。[18]但我们认为,创设具有慈悲心的机器所需求的不仅仅是相似的行为习惯,更为重要的是创造相似的人类情感。人类的慈悲情感应该与机器的“心灵理论”(Theory of mind)一致,这就很容易达到人机交互时的共鸣状态。[19]
如果模拟行为能够成功,机器的“心灵理论”就会实现,那么在机器中就有可能设计出佛教中的慈悲心。佛教慈悲心通常分为四类:慈心、悲心、无量心、平等心。慈心指的是对于他人的幸福和快乐能无私的祝愿;悲心指的是想要去帮助那些受苦难的人从而不留下遗憾;无量心指的是共享他人的快乐而不会嫉妒;平等心通常表达沉着、镇静之意,指的是思想成熟稳定,具有公正性,且不容易因他人情感的影响而动摇。慈悲心的这些分类要求人们看清自身的虚幻,从而在面对外界环境中的极乐与苦难时,能够保持足够的明智与平常心来面对苦难。
事实上,在机器中把慈悲心模型化远比培养人类具有慈悲心要容易得多。因为在机器中把慈悲心模型化依靠的是科学技术的发展,如果我们能够通过技术手段把人类情感表示出来,这样慈悲心就有可能出现在机器中。Tim Freeman[20]提出,把人类极乐和苦难的情感在机器中简单模型化,同时把人类的幸福也转移进机器系统,促使机器自身可以实现自循环。Tim Freeman解释说这一过程不会产生可以洞悉人类智慧的生命,它最多也可能是一个能够为人类提供咨询的伦理专家系统,不会以一个主体的形式提出慈悲心。而从佛教的观点来看,智慧、同情心这种能力代表了生命最为基本的单元,因此这一系统的出现还不完全是佛教意义上的主体。
(二) 佛教伦理智慧的程序设计
佛教学者在佛教伦理与西方传统伦理关系问题上存在争论,主要体现在自然律则、美德伦理与功利主义三个方面。
在自然律则问题上,西方传统伦理从世界本质与人类生命构造的角度出发,认为道德是可以识别的。佛教伦理则崇尚从建基于宇宙客观律则的视角出发,认为不好的行为会导致不好的孽果。在自然律则的问题上,佛教伦理与西方传统伦理具有一定的相似性。佛教伦理在自然律则方面所面临的问题是如何从因果涅槃的轮回中解放出来并走向文明。传统人类学认为这是佛教伦理面临的一个困境,它归因于佛教传统中对业力的奖励和对世俗的惩罚。
在美德伦理方面,Damien Keown认为,佛教伦理崇尚的是“目的论的美德伦理”[21]。佛教世界观认为应该为完善的道德美德与个性特征奋斗,并把它们当作最基本的道德底线,这与西方传统伦理的观点类似。但不同的是,在美德伦理中,西方传统伦理认为美德主要体现在人生的意义、人的价值、人的态度以及人的修养方面。佛教伦理偏重行动的意向性,而不管行动是否能阻止憎恶、贪婪或愚昧,也正因为伦理目标的目的性,他们普遍相信完美的道德最终肯定会到来。
在功利主义方面,西方传统伦理在机器人伦理的设计中较为推崇的是《Moral Machines: Teaching Robots Right from Wrong》一书的观点。Wendell Wallach与Colin Allen在该书中详细介绍并评论了机器人伦理程序的设计[22]。他们认为设计机器人伦理程序,自上而下的进路要逊于自下而上的进路,因为机器人性格的培养是基于其群体交互关系的一种模式。
Buga与Goertzel也赞成这一观点,他们把机器思想的形成类比于儿童的认知心理。儿童伦理观念的形成是以观察成年人的行为开始,然后再作用于他人,这与机器人伦理自下而上的研究进路是一致的。[23]也就是说,机器中的伦理思想与我们人类的伦理观念应该是对称的。因此,他们建议,人类不应该有意去剥夺机器学习和成长能力的思想。
Wallach,Allen,Buraj与Goertzel就此提出发展主义的观点,这也可能是机器人伦理方面最接近佛教进路的一个观点。但需要说明的是,佛教的智慧在于它对美德的关注,并通过冥想超越自身,以此化解大众的苦难。也就是说,佛教伦理的最终目的是为大多数人追求最好。它从基于规则的道义论出发,经由美德伦理而发展到功利主义。在大乘佛教传统中,菩萨通过很多方式来解除众生的苦难。当人们违背道德犯下错误时,为了赎罪,它们经常会求助于可以洞悉前世今生的菩萨。通常,因为菩萨是大公无私的,它把美德伦理和功利伦理合二为一,因此,对于人类这种把不道德的方式合理化的行为,菩萨会有充足的解释能力,但却不会把贪婪、仇恨或无知付诸行动。西方传统伦理却很难把美德伦理和功利伦理结合起来,这尤其体现在J.SMill的功利主义方面,因为他过分强调功利主义的重要性远远大于基本的快乐。
在机器人伦理的设计方面,佛教世界观崇尚美德伦理与功利伦理的结合,这可能是机器人未来发展的一个必经阶段。单纯的功利性的设计进路是片面的,Grau在功利性伦理的研究中提到,机器作为道德主体应该具有无私或忘我的精神,并且应该限制机器人人格特性尤其是功利主义特性的形成,这样有利于避免机器人具有大公无私的精神负担。同时,Grau还提到“对于机器人来说,培养它的道德属性,但同时又强迫它抑制自己的情感,并乐于奉献自身,这似乎是一个非常不道德的过程”[24]。然而,从佛教伦理的世界观来看,功利主义并非是对于自身的一种抑制,它往往是个体 欲望和自我错觉的产物,是个体苦难的根源。功利主义应该在个体美德的引导下,寻求自我牺牲、自我超越、自我奉献。
(三) 佛教自我超越行为的程序设计
佛教伦理通常包含以下几个方面的美德:宽宏、慷慨、忍耐、勤奋、专一、明智。它们都有助于冥想的升华和人类自身的超越。
从设计学的角度分析,人工智能的设计应该从忍耐、慷慨与勤奋等道德行为的角度出发。在智能体设计之始就重点开发它的美德意识,相比于有机体伦理意识的培养,智能体思想程序的设计可能要容易一些。对于忍耐、慷慨与勤奋等这些美德的开发,佛教世界观赞同Wallach与Allen的观点,也就是通过人与智能体的互动,促使人工智能体思想逐步从简单走向成熟。人工智能体的伦理意识转向美德的价值观,有助于智能体抛弃自私观念,并在行为过程中保持快乐和充满活力的状态。
美德传统中忍让与勤奋的习惯有助于培养智能体长远的发展前景,同时也能有效抑制人类在智能体应用方面对短期利益的追求。神经科学已经证明了毅力、耐性和道德行为之间存在密切的联系,人们在实践中也已了解到当血糖含量较低时,自我控制能力随之降低。例如,注意力下降、行为焦躁等。在这种情况下脑部活动能力下降,人们很难清晰地表达自身意愿[25]。这一表现在人工智能的设计上具有启发意义,我们应该培养和锻炼智能体自身的自律行为,避免智能体遭受短期利益的破坏,促使它走向充满智慧的个体。
在佛教传统中,通往智慧的关键是能够看破虚幻,并从不断变化的现象中探求事物的本质。在佛教的这一进路上,人工智能的设计应该重点从事物所具有的本质属性的角度去借鉴,这是事物持久性保持某一状态的根本所在,洞悉和习得这一属性,有助于智能体随时把握事物之间的联系和应对随时出现的一些状况。
五、结论
佛教心理学并非建基于科学模型或实验调查,它是以人类自我调查研究为基础的。从道德心理学的不同表现我们可以看到,不同的道德表现其来源也不一样。因此佛教心理学也应该从不同方面学习和借鉴,尤其是随着认知科学的发展,佛教心理学应该向神经科学中学习一些经验。尽管佛教世界观对于智能体伦理体系的发展提供了一些建议,但由于机器思想的变化莫测,我们认为佛教心理学与神经科学也应该从机器思想中吸取营养。
短期来看,机器思想很有可能不会转化成独立的意识,或者说是发展成独立的道德体。因为在设计之始,我们对于道德或慈悲型智能体的关注多是从人类伦理体系的角度出发的,而并非创造一种具有自我意识的生命。在关涉人类独特的意识、自私、苦难、喜好或不喜好等情感因素的时候,我们并没有把它们具体化。如果我们要开发智能体的道德观念,这就需要机器具有类似于生命体的镜像神经元,以及可以感知欢乐和疼痛的心智理论。因此,只有从这一角度出发,智能体才有可能感受到其它生命体的意识状态,智能体也才能够习得生命体所具有的道德情感和美德意识。最终,随着其洞悉能力的不断成长,它也许能够感受到所有生命体的情感状态,当然也包括它自身。