发布时间:2023-10-09 15:03:36
序言:作为思想的载体和知识的探索者,写作是一种独特的艺术,我们为您准备了不同风格的5篇人工智能的伦理思考,期待它们能激发您的灵感。
关键词:人工智能;异化;规范;生态文明观
中图分类号:TP18
文献标识码:A
一、人工智能技术的发展及其影响
人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。
随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。
二、人工智能技术发展面临的问题及其原因
随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。
调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。
第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。
第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。
第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。
三、人工智能技术的发展转向
人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。
1.技术层面
(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。
(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。
(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。
2.人类自身层面
(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。
(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。
(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。
3.道德法律用
(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。
(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。
此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。
四、结语
科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。
参考文献:
[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.
[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.
[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.
[4]王志良.人工情感[M].北京:机械工业出版社,2009.
[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).
[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.
[7]田金萍.人工智能发展综述[J].科技广场,2007(1).
[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.
[9]龚 园.关于人工智能的哲学思考[D].武汉:武汉科技大学,2010.
关键词:HPS教育;小学科学;人工智能
随着我国教育的迅猛发展,作为科学教育重中之重的小学科学教育逐渐开始被大众所关注,所以探索小学科学教育的新思路已成为教育改革的关键之一。多年来,我国不断借鉴发达国家的教育改革理念与经验,并进行本土化研究,促进我国教育发展。
一、研究背景
HPS教育作为西方20世纪80年代盛行的理论,引入中国已有20余年。作为极其受欢迎的教育理念,凭借着自身优势在中国教育课程改革中占据了一席之地,也为中国科学教育提供了新思路。
(一)HPS的概念界定
HPS的提出源自科学内部对科学反思和科学外部人员对科学本质认识的思考。最初,HPS指的是科学史(HistoryofScience)和科学哲学(PhilosophyofScience)两大学科领域,但在20世纪90年代科学建构论流行后,科学社会学与科学知识社会学被引入科学教育,HPS逐渐演化成科学史(HistoryofScience)、科学哲学(PhilosophyofScience)和科学社会学(SociologyofScience)三者的统称[1]:科学史即研究科学(包括自然科学和社会科学)和科学知识的历史;科学哲学则是对科学本性的理性分析,以及对科学概念、科学话语的哲学思辨,比如科学这把“双刃剑”对人类社会的影响;科学社会学则讨论科学处在社会大系统中,社会种种因素在科学发展过程中的地位和作用,这包括了政治、经济、文化、技术、信仰等因素[2]。在国外,德国科学家和史学家马赫最早提倡HPS教育,突出强调哲学与历史应用至科学教学中的作用。我国HPS相关研究开始晚且研究规模较小,首都师范大学的丁邦平教授认为HPS融入科学课程与教学是培养学生理解科学本质的一个重要途径[3]。
(二)HPS教育理念融入小学科学课程的必要性
运用科学史、科学哲学等进行教学是目前国际上小学科学教育改革的一种新趋势。2017年,教育部颁布的《义务教育小学科学课程标准》标志着我国科学教育步入了新阶段,其不仅要求达成科学知识、科学探究的相应目标,也要养成相应的科学态度,思考科学、技术、社会与环境的融洽相处。该标准提出了“初步了解在科学技术的研究与应用中,需要考虑伦理和道德的价值取向,提倡热爱自然、珍爱生命,提高保护环境意识和社会责任感”。HPS教育与小学科学课程的结合是教学内容由知识到能力再到素养的过程,是小学科学教育的新维度,改变了小学科学课程的教学环境。将科学课程中融入HPS教育的内容,可以帮助学生理解科学本质,研究科学知识是如何产生的,科学对社会的多方面影响以及科学和科学方法的优、缺点等。当《小学课程标准》将科学态度和价值观视为科学教育的有机组成部分时,小学科学课程就有望成为HPS教育的天然载体,同时为小学科学课程渗透HPS教育提出了挑战。目前,我国小学科学课程虽已有部分设计融入了HPS教育理念,但该融入过程仍停留在表面,融入程度低,融入方式单一。所以,研究HPS教育理念融入小学科学课程十分有必要。
(三)HPS教育理念融入小学科学课程的可行性
纵观国内外已有的研究,将HPS教育融入小学科学课程可分为基于传统课堂模式的正式教育课程和基于科技馆、研学机构等的非正式教育课程。由皖新传媒、中国科学技术大学先进技术研究院新媒体研究院、中国科学技术大学出版社三方通力合作、联合打造的《人工智能读本》系列丛书自出版以来已发行八万套,在安徽省多个市区的小学得以应用,是青少年人工智能教育上的一次全新探索。该套丛书分三年级至六年级共四套,涵盖了16个人工智能前沿研究领域知识点,每一节课都设有场景引入、读一读、看一看、试一试4个模块。小学《人工智能读本》作为阐述新兴科技的读本,以亲切的场景对话和可爱幽默的插画等形式吸引了众多小学生的兴趣,不仅可作为学校科学课读本,也可以应用于课外场景。本文则以小学《人工智能读本》为例,对HPS教育进行初步摸索与实践,以期对小学科学教育带来教益。
二、HPS教育理念融入小学科学的典型案例
《人工智能读本》作为HPS教育理念融入小学科学实践的典型案例,侧重引导学生多维度、科学辩证地认识人工智能,内容包括机器学习、决策职能和类脑智能,以及人工智能的不同发展阶段,带领学生思考人工智能带来的伦理问题以及其他挑战,培养学生正确的世界观、人生观和价值观。本研究将以《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”为例,分析HPS教育理念融入小学科学的实践。
(一)科学史:提升课程趣味性
小学科学教育作为培养具有科学素养公众的重要步骤,提升过程的趣味性则十分重要。过去传统的小学科学教育注重知识的传递而忽略了学习过程,填鸭式教学导致学生失去对科学的兴趣与探索欲,不利于公民科学素养的整体提高。而科学史作为研究科学(包括自然科学和社会科学)和科学知识的历史,已经逐渐渗透到科学教育中来。科学史常常介绍科学家的事迹,某一知识诞生所面临的困难和曲折过程,而将科学史融入课程可以带学生重回知识诞生的时刻,切身体会科学。读本作为在小学科学教育中不可或缺的工具,利用科学史内容,以叙事方式可以将科学哲学与科学社会学的思想融入教学过程中,在读本中融入历史,可以提升课程趣味性,帮助学生更加容易探求科学本质,感受科学家不懈努力、敢于质疑的精神,提升科学素养。例如《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”引入部分即以时间顺序展开,介绍人工智能的发展与面临的困境。在“看一看”中机器人索菲亚是否可以结婚的故事不仅为本章节提供了丰富的内容,提升了课程的趣味性,而且还融入了科学与哲学,引发读者对于人工智能的思考。
(二)科学社会学:提升课程社会性
科学社会学是研究一切科学与社会之间的联系与影响,包含科学对社会的影响和社会对科学的影响。科学是一种社会活动,同时也受到政治、经济、文化等多方面影响,比如蒸汽机的诞生表明科学促进社会的发展。在科学教育的课堂中融入科学社会学不仅可以帮助学生理解科学问题,还可以通过介绍科学与社会之间的复杂关系,培养学生灵活、批判看待科学问题的思维能力。如六年级第四单元“人工智能伦理与其他挑战”中,在介绍个人与技术的基础上引入了政府和环境这两个要素,使学生在更宏观的背景下,获得这样一种认知:环境与技术之间有一把“双刃剑”,个人与技术、政府与技术之间是相互促进的主客体关系。《人工智能读本》并不全是说教性质的文字,在“试一试”中的辩论赛环节让同学通过亲身实践,更加了解人工智能对于社会的多方面影响。通过对于科技是一把“双刃剑”这一事实的了解,同学们可以更好地将学习知识与社会的背景联系在一起,深刻体会科学中的人文素养,增强社会责任感。
(三)科学哲学:提升课程思辨性
以往研究发现,国内学科教材中关于科学史和科学社会学内容较多而且呈显性,而对于科学哲学的融入内容不够,且不鲜明。[3]科学哲学融入科学教育无疑可以提升学生的思辨性,帮助学生建立起对于科学正确而全面的认识。例如,《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”中,引入人工智能伦理,通过介绍人工智能面对的挑战、人工智能的具体应对策略,让小学生了解人工智能技术发展的同时也要重视可能引发的法律和伦理道德问题,明白人与人工智能之间的关系以及处理这些关系的准则。通过“读一读”先让学生明白伦理概念,再用一幅画让学生思考在算法的发展下,人类与机器人的关系如何定义,向学生传递树立人类与人工智能和谐共生的技术伦理观。通过这种方式,可以帮助学生逐步建立完整的科学观,全面且思辨地看待科学,提升学生思辨性,进而提升科学素养。
三、HPS教育理念融入小学科学课程的实践建议
《人工智能读本》作为一套理论与实践相结合,具有知识性与趣味性的儿童科普读物,着重引导小学生培养科学创新意识,提升人工智能素养,产生求知探索欲望。但《人工智能读本》作为HPS融入小学科学课程的初始,仍存在教育资源不充分、内容结合较浅等不足,为了将HPS教育更好融入小学科学课程,可从以下三方面加以改进。
(一)开发HPS教育资源
HPS教育需要教育资源的支撑。HPS教育资源来源广泛,无论是学生的现实生活,还是历史资料,都可以提供契机和灵感。《人工智能读本》中收集了大量与人工智能相关的故事和现实案例,都可以作为教育资源,从各个角度达到科普的目的。在新媒体时代,进行HPS教育资源开发时,应当注意借助最新的信息与通信技术增强资源的互动性,如互动多媒体技术、虚拟现实技术、增强现实技术、科学可视化技术等。在传统的科学课堂教学中,主要是通过图片文字讲解,实验演示及互动来开展。这种形式对于现实中能接触到的实验内容,如常见的动植物、可操作的物理化学实验等,比较容易开展。而对于地球与宇宙科学领域的知识,或者一些已经不存在的动植物,则只能通过图片视频进行展示,不容易进行实验展示。通过虚拟现实技术、增强现实技术等,则可以虚拟出世界万物,如不易操作的物理化学实验、已消失的动植物等都可以通过虚拟现实的手段得以呈现。这些技术或能使教学内容变得生动形象,或通过营造沉浸感以使学生有更佳的情境体验,或让学生与教学资源进行交互从而自定义内容,服务于学生科学素养提升的终极目的。
(二)对小学科学教师进行培训
HPS教育的关键是从社会、历史、哲学等角度对自然科学内容进行重新编排,并不是将大量的内容或学科知识简单相加,这对教师能力也提出了更高要求。目前,人工智能教学领域常常出现“学生不会学、老师不会教”的状况,《人工智能读本》作为内容翔实有趣的读本可以弥补一部分缺失。但与此同时,也需要提升教师的教学能力与知识储备。HPS教育理念不仅仅针对历史中的科学人物,所有的学生主体也是历史中的主体,他们也身处于社会中,并且对于生活中的各种科学现象有着自己的思考。所以教师身为引导者,需要注意到学生的思考,深入挖掘,鼓励他们对所思内容进行反思并付诸实践。科学史和科学哲学应当成为科学教师教育项目中的一部分,这能让科学教师更好地理解他们的社会责任。为此,对职业科学教师进行HPS培训便是必要的。
(三)多场景开展小学科学教育
科学素养不是空洞的,它来自学生的认识体验,并从中获得生动、具体的理解和收获。《人工智能读本》作为方便携带的读本,不仅可以在小学科学课堂中作为教材使用,也可以应用在其他场景,如研学旅行、科技馆等场所。课堂学习只是小学科学教育中的一个环节,家庭、科技馆等也可以进行科学教育。例如,科技馆与博物馆可以以科学家和历史科学仪器为主题举办展览,展览中融入HPS教育理念,学生在参观和学习过程中学习有关科学内容。一些历史上大型的科学实验,学校教室或实验室无法满足条件,但在大型的场馆中可以实现。例如,研学旅行作为目前科学教育中最受欢迎的方式之一,已被纳入学校教育教学计划,列为中小学生的“必修课”,正逐渐成为学生获得科学知识的另一个途径。研学旅行作为一种集知识性、教育性、趣味性和娱乐性为一体的旅游形式,通常伴随着知识教育的过程,包括科学知识的普及,所以也是开展小学科学教育的重要场所。在该场景下,运用《人工智能读本》等新兴手段进行科学教育往往取得事半功倍的效果。
结语
目前,HPS教育理念已经积极尝试运用到小学科学教育中,包括学校内的正式学习以及学校外如科技馆、博物馆、研学旅游中的非正式学习之中。其中,科技史以时间维度为线索创造丰富资源的同时也可以提升课程趣味性;科学社会学以科学与社会之间的相互关系帮助学生理解科学本质,提升科学素养;科学哲学则以哲学的视域审视科学的诞生提升学生思辨能力。未来,HPS教育结合小学科学则需要更深入,在资源开发、教师培训以及应用场景等方面加以改进,为提升国民科学素养做出努力。
参考文献:
[1]袁维新.国外科学史融入科学课程的研究综述[J].比较教育研究,2005,26(10):62-67.
[2]张晶.HPS(科学史,科学哲学与科学社会学):一种新的科学教育范式[J].自然辩证法研究,2008,24(9):83-87.
[3]丁邦平.HPS教育与科学课程改革[J].比较教育研究,2000(06):6-12.
人工智能和机器学习的进步速度如此迅猛,我们的社会将迎来一些重要的伦理和经济问题,应对这些问题恐怕会费心费力。
总体而言,人工智能(AI)和物联网将同时改变互联网和全球经济。在未来5年内,我们可以预期人工智能和机器学习将会被整合到各种各样的技术中,这些技术包括数据交换和分析。这将带来巨大的机遇,如全新的服务和科学突破,人类智力的提升,以及它与数字世界的融合。
在人工智能领域存在相当大的不确定性,如决策转由机器执行,缺乏透明度,技术变革将超过治理和政策规范的发展。自动化可能会深刻地改变行业,影响就业和公共服务的交付。政府和社会需要为其影响做好准备:
经济和社会必须为人工智能以及物联网带来的颠覆做好准备。
在人工智能的设计和部署中,必须优先考虑伦理问题。
人工智能和自动化将带来全新的社会经济机会,但对个人和社会的影响和取舍还不清楚。
人工智能正改变着我们的决策方式,我们必须确保人类仍然处于“驾驶座”的主导位置。
在社会内部和社会之间,人工智能的益处分配将不均衡,进而加剧当前和未来的数字鸿沟。这种现象发生的风险极高。
人工智能世界的治理与伦理问题
人工智能引发了对伦理问题的广泛担忧。技术人员表示,这项技术需遵从人类的价值观,在人工智能系统的设计、开发和部署的每一个阶段,都必须优先考虑伦理层面的问题。
目前,人工智能和相关技术正在开发和部署,短期内将需要大量的投资和努力,以避免对社会和人类造成意想不到的影响。在未来,我们需要把焦点放在研究上以及有效的管理架构上,以确保人工智能技术带来的是契机,而不是损害。目前,开发算法的工作仍然由人类完成。对我们所做的事,我们仍拥有些许控制。
然而,如果我们把这类工作拱手相让给中介机构,而中介机构又让算法来设计算法。那么在五年内,开发算法的工作可能就不是人类在做了,而是人工智能在掌控。是否将出现这样的前景:我们打交道的中介机构将被人工智能替代。
此外,人工智能引发的重要考虑事项涵盖了隐私、透明度、安全性、工作性质,以及整体经济。例如,基于面部识别技术可以提升用户在社交媒体上的体验。但同样的技术也可以用来提升监视效果,牺牲个人隐私。亦或是,如果人工智能成为社交媒体网络和在线平台的永久功能,在这些平台上,算法被用来管理在线体验、有关自由选择和偏见的问题将会加剧。人们将对数据收集和决策的透明度和责任性感到担忧。这种担忧将会加速伦理原则的制定。而这些原则的作用是什么?用以指导人工智能的设计和部署。
一个社会如果完全以数据收集为基础,那么从商业角度来看,在没有适当的民主监督和平衡的情况下,将助长社会过度依赖监督。机器提供了太多自动选择,人类无需过多思考,从而失去了某些自我决策的机会。
数据分析技术产生的自动化将对人类行为和决策产生更大的影响。
政府将如何应对人工智能带来的更大的经济和社会影响?政府是否具备这样做的能力和资源?在政府内部,由于政策的制定和调整越来越多地受到数据的驱动,人工智能可能会带来一种根本性的决策调整。此外,人工智能可能成为未来政策选择的一种决策工具,而且使用起来可能会草率而不透明。
物联网和人工智能的发展将为政府决策提供科学依据,并帮助它们快速应对民众的需求。
许多人预见,未来几年将展开一场激烈的竞争,以争夺商业人工智能领域的霸主地位。尽管这可能会推动创新,并有可能颠覆当前的市场结构,但也存在竞争方面的担忧。预测者认为,在可预见的未来,如今的领先科技公司将会控制人工智能市场。
人工智能对互联网经济的影响
一些人认为,预测人工智能是一种营销炒作,但很多业内人士和政府都在为人工智能的普及做准备。CB Insights估计,2016年超过50亿美元的风投资金流向了人工智能创业公司,比前一年增长了62%。人工智能为创造新工作、新产业和新沟通方式提供了巨大机遇。
随着人工智能和自动化在各个行业推动重大结构变革,工作的本质将发生改变。随着人工智能获取用户数据,改变产品和服务的交付方式,许多现有的工作岗位可能会被取代。如何适应变化的步伐将是未来一项重大的全球性挑战。
与人工智能和物联网相关的项目引领了我们很长一段时间,提升了我们现有的技术,让普通人生活更加方便。
人工智能系统和技术可以改变工作的性质,让员工能力得到提升,从而减少人类之间和国家之间的不平等。人工智能让我们承担和解决更大的挑战。正如一份调查报告所显示,“人们的大脑和互联网之间的距离会变得越来越近,而两者之间的交叉会变得越来越复杂。”
机器与机器之间的通信增加了成本压力,人们正在被取代。这只会随着时间的推移而不断增加,这对经济有好处,但会对就业提出挑战。
人工智能为科学研究、交通运输和服务提供带来了巨大潜在收益。如果可访问性和开源开发胜出,人工智能有可能给发达国家和发展中国家带来红利。例如,依赖农业生产的国家可以利用人工智能技术分析作物产量,优化粮食产量。在医疗保健领域使用人工智能可能会改变低收入地区的疾病检测方法。
人工智能是一种创造性的毁灭,它将淘汰许多工作岗位,但也将创造新的角色和工作岗位。
但是,社会本身是否已经准备好接受这种变化,我们是否为新型经济做好了充分的准备?对于发展中经济体而言,新技术总是能创造出更多的可能性,尽管部署人工智能(以及物联网)的基础设施非常重要。人工智能的好处也可能不均衡:对于依赖低技能劳动力的经济体,自动化可能会挑战它们在全球劳动力市场中的竞争优势,并加剧当地的失业形势,影响经济发展。
用于管理制造业或服务业的智能和服务,可能仍集中在发达国家。人工智能可能会在很大程度上加剧数字鸿沟,这将会带来政治上的影响。
确保互联网技术创造市场就业机会,且不会对就业市场造成损害,这是未来5年必须解决的一个挑战,也是国际上一个紧迫而严重的问题。
人工智能对互联网安全和网络智能的影响
算法开始做出决策,它们比人类决策更快,并且可以代表我们的意志。此外,系统越来越不透明。我们不知道他们在哪里,他们在做什么决定。
虽然安全与信任对人工智能的未来至关重要,但这项技术也可以帮助解决安全挑战。随着网络和信息流变得越来越复杂,人工智能可以帮助网络管理人员理解交通模式,创建识别安全威胁的方法。在基本的企业层面上,人工智能可以执行由IT帮助台执行的任务,比如解决员工的电脑问题。
这将为企业IT专业人员提供更多的时间来实现安全最佳实践,并更好地保护公司系统和网络。除了人工智能决策,人工智能还可以在网络上对日益增长的安全威胁进行分类。
科学家:
物理学家斯蒂芬・威廉・霍金(Stephen William Hawking):文明所产生的一切都是人类智能的产物,从国际象棋和围棋人机大战的结果来看,生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。人工智能一旦脱离束缚,将以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。
斯坦福大学计算机科学院教授、谷歌首席科学家Yoav Shoham:未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。
企业家:
微软CEO 萨提亚・纳德拉(Satya Nadella):未来的AI世界,人和机器的关系不是非此即彼,而应该是人机携手,共创未来。
谷歌CEO桑达尔・皮查伊(Sundar Pichai):关于AI反噬人类的担忧,从长远来看,AI必将提高人类的生活质量。
百度公司创始人李彦宏:人工智能等技术其实没有这么可怕,可以为人们所用,基本上只是披着狼皮的羊。
创新工场创始人李开复:人类面临最大的问题是失业,而不是被机器取代以及机器有了意识去控制人类。
学者:
关键词:人工智能 情感 约束
中图分类号:TP18 文献标识码:A 文章编号:1007-3973(2013)001-085-03
1引言
人工智能(Artificial Intelligence,AI)自从20世纪50年代产生,经过长期发展,已经有了长足的进步,并且已经深入到社会生活的诸多领域,如语言处理、智能数据检索系统、视觉系统、自动定理证明、智能计算、问题求解、人工智能程序语言以及自动程序设计等。随着科学技术的不断发展,现在的人工智能已经不再是仅仅具有简单的模仿与逻辑思维能力,人们也越来越期待人工智能能够帮助或者替代人类从事各种复杂的工作,加强人的思维功能、行为功能或是感知功能。这就要求人工智能具有更强的情感识别、情感表达以及情感理解能力。通俗的说,为了使得人工智能对外界的变化适应性更强,需要给它们赋予相应的情感从而能够应对这个难以预测的世界。
在赋予人工智能“情感”的过程中,面临着许多的问题,有科技层面上的,也有社会学层面的。本文在这里只讨论其中一个比较基本的社会学问题:“人工智能情感约束问题”,即关注于如何约束赋予给人工智能的情感,不至于使其“情感泛滥”。情感指的是一种特殊的思维方式,人工智能具有了情感后的问题是:人工智能的情感是人类赋予的,人工智能自身并不会创造或者控制自己的情感。如果赋予人工智能的情感种类不合理,或者是赋予的情感程度不恰当,都有可能造成“情感泛滥”并导致一些灾难性的后果。例如,当人工智能具有了情感之后,如果人类自身管理不恰当,有可能导致人工智能反过来伤害人类。尽管目前我们只能在一些科幻作品中看到这种情况发生,但谁也不能保证未来有一天会不会真的出现这种悲剧。
本文第二章对人工智能情感研究进行了概要性回顾,第三章对如何约束人工智能情感进行了尝试性探讨,最后一章对全文进行了总结。
2人工情感发展情况概述
随着科学家对人类大脑及精神系统深入的研究,已经愈来愈肯定情感是智能的一部分。人工情感是以人类自然情感理论为基础,结合人工智能、机器人学等学科,对人类情感过程进行建模,以期获得用单纯理性思维难以达到的智能水平和自主性的一种研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感机器识别与表达、人工情感机理等四个方面的内容。其中,尤以人工情感机理的研究困难最大,研究者也最少。
目前人工情感在很多领域得到了应用和发展,比较典型的是在教育教学、保健护理、家庭助理、服务等行业领域。在教育教学方面比较典型的例子是德国人工智能研究中心发展的三个方案:在虚拟剧场、虚拟市场和对话Agent中引入情感模型和个性特征来帮助开发儿童的想象力及创造力。在保健护理方面比较典型的是家庭保健与护理方向,如Lisetti等人研制的一个用于远程家庭保健的智能情感界面,用多模态情感识别手段来识别病人的情感状态,并输入不同媒体和编码模型进行处理,从而为医生提供关于病人简明而有价值的情感信息以便于进行有效的护理。服务型机器人的典型例子是卡内基梅隆大学发明的一个机器人接待员Valerie。Valerie的面孔形象的出现在一个能够转动方向的移动屏幕上时可以向访问者提供一些天气和方位方面的信息,还可以接电话、解答一些问题;并且Valerie有自己的性格和爱好,情感表达较为丰富。当然这些只是人工情感应用领域中的几个典型的例子,人工智能情感的潜力仍然是巨大的。
尽管关于人工情感的研究已经取得了一定的成果,给我们带来了很多惊喜和利益,但由于情绪表现出的无限纷繁以及它与行为之间的复杂联系,人们对它的运行机理了解的还不成熟,以致使得目前人工情感的研究仍面临着诸如评价标准、情感道德约束等多方面问题。所以必须清楚的认识到我们目前对于人工情感的计算乃至控制机制并没有一个成熟的体系。
3对人工智能的情感约束
正如上文所述,如果放任人工智能“情感泛滥”,很有可能会造成严重的后果。为了使人工智能技术更好的发展,使智能与情感恰到好处的结合起来,我们有必要思考如何对赋予人工智能情感进行引导或者约束。
3.1根据级别赋予情感
可以根据人工智能级别来赋予其情感,如低级别人工智能不赋予情感、高级别人工智能赋予其适当的情感。众所周知,人工智能是一门交叉科学科,要正确认识和掌握人工智能的相关技术的人至少必须同时懂得计算机学、心理学和哲学。首先需要树立这样的一个观点:人工智能的起点不是计算机学而是人的智能本身,也就是说技术不是最重要的,在这之前必须得先解决思想问题。而人工智能由于这方面没有一个严格的或是量度上的控制而容易出现问题。从哲学的角度来说,量变最终会导致质变。现在是科学技术飞速发展的时代,不能排除这个量变导致质变时代的人工智能机器人的到来,而到那个时候后果则不堪设想。因此,在现阶段我们就应该对人工智能的情感赋予程度进行一个约束。
根据维纳的反馈理论,人工智能可以被分成高低两个层次。低层次的是智能型的人工智能,主要具备适应环境和自我优化的能力。高层次的是情感型的人工智能,它的输入过程主要是模仿人的感觉方式,输出过程则是模仿人的反应情绪。据此我们可分别将机器人分为一般用途机器人和高级用途机器人两种。一般用途机器人是指不具有情感,只具有一般编程能力和操作功能的机器人。那么对于一般用途的机器人我们完全可以严格的用程序去控制它的行为而没必要去给他赋予情感。而对于高级层面的情感机器人来说,我们就适当的赋予一些情感。但即使是这样一部分高层次的情感机器人,在赋予人工情感仍然需要考虑到可能会带来的某些潜在的危害,要慎之又慎。
3.2根据角色赋予情感
同样也可以根据人工智能机器人角色的不同选择性的赋予其不同类型的情感。人类与机器合作起来比任何一方单独工作都更为强大。正因为如此,人类就要善于与人工智能机器合作,充分发挥人机合作的最大优势。由于计算机硬件、无线网络与蜂窝数据网络的高速发展,目前的这个时代是人工智能发展的极佳时期,使人工智能机器人处理许多以前无法完成的任务,并使一些全新的应用不再禁锢于研究实验室,可以在公共渠道上为所有人服务,人机合作也将成为一种大的趋势,而他们会以不同的角色与我们进行合作。或作为工具、顾问、工人、宠物、伴侣亦或是其他角色。总之,我们应该和这些机器建立一种合作互助的关系,然后共同完任务。这当然是一种很理想的状态,要做到这样,首先需要我们人类转变自身现有的思维模式:这些机器不再是一种工具,而是平等的服务提供人。
举例来说,当机器人照顾老人或是小孩的时候,我们应该赋予它更多的正面情绪,而不要去赋予负面情绪,否则如果机器人的负向情绪被激发了,对于这些老人或者小孩来说危险性是极大的;但是,如果机器人是作为看门的保安,我们对这种角色的机器人就可以适当的赋予一些负向的情绪,那么对于那些不按规则的来访者或是小偷就有一定的威慑力。总之,在我们赋予这些智能机器人情感前必须要周到的考虑这些情感的程度和种类,不要没有顾忌的想当然的去赋予,而是按分工、作用赋予限制性的情感约束,达到安全的目的。
3.3对赋予人进行约束
对人工智能情感赋予者进行约束,提高赋予者的自身素质,并定期考核,并为每一被赋予情感的人工智能制定责任人。
纵观人工智能技术发展史,我们可以发现很多的事故都是因为人为因素导致的。比如,首起机器人杀人案:1978年9月的一天,在日本广岛,一台机器人正在切割钢板,突然电脑系统出现故障,机器人伸出巨臂,把一名工人活生生地送到钢刀下,切成肉片。
另外,某些研究者也许会因为利益的诱惑,而将人工智能运用在不正当领域,或者人工智能技术落入犯罪分子的手中,被他们用来进行反对人类和危害社会的犯罪活动。也就是用于所谓的“智能犯罪”。任何新技术的最大危险莫过于人类对它失去控制,或者是它落入那些企图利用新技术反对人类的人的手中。
因此为了减少这些由于人而导致的悲剧,我们需要对这些研究者本身进行约束。比如通过相应的培训或是定期的思想政治教育、或是理论知识的学习并制定定期的考核制度来保证这些专家自身的素质,又或者加强对人工智能事故的追究机制,发生问题能立即查询到事故方等等,通过这样一系列强有力的硬性指标达到减少由于人为因素导致悲剧的目的。
3.4制定相应的规章制度来管理人工智能情感的发展
目前世界上并未出台任何一项通用的法律来规范人工智能的发展。不过在1939 年,出生在俄国的美籍作家阿西莫夫在他的小说中描绘了工程师们在设计和制造机器人时通过加入保险除恶装置使机器人有效地被主人控制的情景。这就从技术上提出了预防机器人犯罪的思路。几年后, 他又为这种技术装置提出了伦理学准则的道德三律:(1)机器人不得伤害人类,或看到人类受到伤害而袖手旁观;(2)在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;(3)在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。这一“机器人道德三律”表现了一种在道德忧思的基础上,对如何解决人工智能中有害人类因素所提出的道德原则,虽然得到很多人的指责,但其首创性还是得到公认的。尽管这个定律只是小说家提出来的,但是也代表了很多人的心声,也是值得借鉴的。
那么对于人工智能情感的约束呢?显然,更加没有相应的法律法规来规范。那么,我们就只能在赋予人工智能情感的道理上更加的小心翼翼。比如,我们可以制定一些应急方案来防止可能导致的某些后果,也即出现了问题如何及时的处理之。另外我们在操作和管理上应更加慎重的去对待。也希望随着科学技术的发展,能够在不久的将来出台一部相应的规章制度来规范人工智能情感的管理,使之更加精确化、合理化。
4结束语
人工智能的情感研究目的就是探索利用情感在生物体中所扮演的一些角色、发展技术和方法来增强计算机或机器人的自治性、适应能力和社会交互的能力。但是现阶段对这方面的研究虽然在技术上可能已经很成熟,但是人工智能情感毕竟是模拟人的情感,是个很复杂的过程,本文尝试性的在人工智能发展中可能遇到的问题进行了有益的探讨。但是不可否认仍然有很长的道路要走,但是对于人工智能的发展劲头我们不可否认,将来“百分百情感机器人”的问世也许是迟早的事情。
参考文献:
[1] 赵玉鹏,刘则渊.情感、机器、认知――斯洛曼的人工智能哲学思想探析[J].自然辩证法通讯,2009,31(2):94-99.
[2] 王国江,王志良,杨国亮,等.人工情感研究综述[J].计算机应用研究,2006,23(11):7-11.
[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究综述[J].江南大学学报(自然科学版),2012,11(04):497-504.
[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.
[5] Valerie.The Roboceptionist[EB/OL].http://.
[6] 张显峰,程宇婕.情感机器人:技术与伦理的双重困境[N].科技日报,2009-4-21(005).
[7] 张晓丽.跟机器人谈伦理道德为时尚早[N].辽宁日报,2011-11-04(007).
[8] Peter Norvig.人工智能:机器会“思考”[J].IT经理世界,2012(Z1):331-332.
[9] McCarthy J.Ascribing Mental Qualities to Machines1A2. In Ringle M,editor,Philosophical Perspectives in Artificial Intelligence1C2,Humanities Press Atlantic Highlands,NJ,1979:161-195.