当前位置: 首页 精选范文 人工智能的伦理思考范文

人工智能的伦理思考精选(十四篇)

发布时间:2023-10-09 15:03:36

序言:作为思想的载体和知识的探索者,写作是一种独特的艺术,我们为您准备了不同风格的14篇人工智能的伦理思考,期待它们能激发您的灵感。

人工智能的伦理思考

篇1

关键词:人工智能;异化;规范;生态文明观

中图分类号:TP18

文献标识码:A

一、人工智能技术的发展及其影响

人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。

随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。

二、人工智能技术发展面临的问题及其原因

随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。

调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。

第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。

第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。

第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。

三、人工智能技术的发展转向

人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。

1.技术层面

(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。

(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。

(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。

2.人类自身层面

(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。

(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。

(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。

3.道德法律用

(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。

(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。

此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。

四、结语

科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。

参考文献:

[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.

[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.

[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.

[4]王志良.人工情感[M].北京:机械工业出版社,2009.

[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).

[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.

[7]田金萍.人工智能发展综述[J].科技广场,2007(1).

[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.

[9]龚 园.关于人工智能的哲学思考[D].武汉:武汉科技大学,2010.

篇2

关键词:HPS教育;小学科学;人工智能

随着我国教育的迅猛发展,作为科学教育重中之重的小学科学教育逐渐开始被大众所关注,所以探索小学科学教育的新思路已成为教育改革的关键之一。多年来,我国不断借鉴发达国家的教育改革理念与经验,并进行本土化研究,促进我国教育发展。

一、研究背景

HPS教育作为西方20世纪80年代盛行的理论,引入中国已有20余年。作为极其受欢迎的教育理念,凭借着自身优势在中国教育课程改革中占据了一席之地,也为中国科学教育提供了新思路。

(一)HPS的概念界定

HPS的提出源自科学内部对科学反思和科学外部人员对科学本质认识的思考。最初,HPS指的是科学史(HistoryofScience)和科学哲学(PhilosophyofScience)两大学科领域,但在20世纪90年代科学建构论流行后,科学社会学与科学知识社会学被引入科学教育,HPS逐渐演化成科学史(HistoryofScience)、科学哲学(PhilosophyofScience)和科学社会学(SociologyofScience)三者的统称[1]:科学史即研究科学(包括自然科学和社会科学)和科学知识的历史;科学哲学则是对科学本性的理性分析,以及对科学概念、科学话语的哲学思辨,比如科学这把“双刃剑”对人类社会的影响;科学社会学则讨论科学处在社会大系统中,社会种种因素在科学发展过程中的地位和作用,这包括了政治、经济、文化、技术、信仰等因素[2]。在国外,德国科学家和史学家马赫最早提倡HPS教育,突出强调哲学与历史应用至科学教学中的作用。我国HPS相关研究开始晚且研究规模较小,首都师范大学的丁邦平教授认为HPS融入科学课程与教学是培养学生理解科学本质的一个重要途径[3]。

(二)HPS教育理念融入小学科学课程的必要性

运用科学史、科学哲学等进行教学是目前国际上小学科学教育改革的一种新趋势。2017年,教育部颁布的《义务教育小学科学课程标准》标志着我国科学教育步入了新阶段,其不仅要求达成科学知识、科学探究的相应目标,也要养成相应的科学态度,思考科学、技术、社会与环境的融洽相处。该标准提出了“初步了解在科学技术的研究与应用中,需要考虑伦理和道德的价值取向,提倡热爱自然、珍爱生命,提高保护环境意识和社会责任感”。HPS教育与小学科学课程的结合是教学内容由知识到能力再到素养的过程,是小学科学教育的新维度,改变了小学科学课程的教学环境。将科学课程中融入HPS教育的内容,可以帮助学生理解科学本质,研究科学知识是如何产生的,科学对社会的多方面影响以及科学和科学方法的优、缺点等。当《小学课程标准》将科学态度和价值观视为科学教育的有机组成部分时,小学科学课程就有望成为HPS教育的天然载体,同时为小学科学课程渗透HPS教育提出了挑战。目前,我国小学科学课程虽已有部分设计融入了HPS教育理念,但该融入过程仍停留在表面,融入程度低,融入方式单一。所以,研究HPS教育理念融入小学科学课程十分有必要。

(三)HPS教育理念融入小学科学课程的可行性

纵观国内外已有的研究,将HPS教育融入小学科学课程可分为基于传统课堂模式的正式教育课程和基于科技馆、研学机构等的非正式教育课程。由皖新传媒、中国科学技术大学先进技术研究院新媒体研究院、中国科学技术大学出版社三方通力合作、联合打造的《人工智能读本》系列丛书自出版以来已发行八万套,在安徽省多个市区的小学得以应用,是青少年人工智能教育上的一次全新探索。该套丛书分三年级至六年级共四套,涵盖了16个人工智能前沿研究领域知识点,每一节课都设有场景引入、读一读、看一看、试一试4个模块。小学《人工智能读本》作为阐述新兴科技的读本,以亲切的场景对话和可爱幽默的插画等形式吸引了众多小学生的兴趣,不仅可作为学校科学课读本,也可以应用于课外场景。本文则以小学《人工智能读本》为例,对HPS教育进行初步摸索与实践,以期对小学科学教育带来教益。

二、HPS教育理念融入小学科学的典型案例

《人工智能读本》作为HPS教育理念融入小学科学实践的典型案例,侧重引导学生多维度、科学辩证地认识人工智能,内容包括机器学习、决策职能和类脑智能,以及人工智能的不同发展阶段,带领学生思考人工智能带来的伦理问题以及其他挑战,培养学生正确的世界观、人生观和价值观。本研究将以《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”为例,分析HPS教育理念融入小学科学的实践。

(一)科学史:提升课程趣味性

小学科学教育作为培养具有科学素养公众的重要步骤,提升过程的趣味性则十分重要。过去传统的小学科学教育注重知识的传递而忽略了学习过程,填鸭式教学导致学生失去对科学的兴趣与探索欲,不利于公民科学素养的整体提高。而科学史作为研究科学(包括自然科学和社会科学)和科学知识的历史,已经逐渐渗透到科学教育中来。科学史常常介绍科学家的事迹,某一知识诞生所面临的困难和曲折过程,而将科学史融入课程可以带学生重回知识诞生的时刻,切身体会科学。读本作为在小学科学教育中不可或缺的工具,利用科学史内容,以叙事方式可以将科学哲学与科学社会学的思想融入教学过程中,在读本中融入历史,可以提升课程趣味性,帮助学生更加容易探求科学本质,感受科学家不懈努力、敢于质疑的精神,提升科学素养。例如《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”引入部分即以时间顺序展开,介绍人工智能的发展与面临的困境。在“看一看”中机器人索菲亚是否可以结婚的故事不仅为本章节提供了丰富的内容,提升了课程的趣味性,而且还融入了科学与哲学,引发读者对于人工智能的思考。

(二)科学社会学:提升课程社会性

科学社会学是研究一切科学与社会之间的联系与影响,包含科学对社会的影响和社会对科学的影响。科学是一种社会活动,同时也受到政治、经济、文化等多方面影响,比如蒸汽机的诞生表明科学促进社会的发展。在科学教育的课堂中融入科学社会学不仅可以帮助学生理解科学问题,还可以通过介绍科学与社会之间的复杂关系,培养学生灵活、批判看待科学问题的思维能力。如六年级第四单元“人工智能伦理与其他挑战”中,在介绍个人与技术的基础上引入了政府和环境这两个要素,使学生在更宏观的背景下,获得这样一种认知:环境与技术之间有一把“双刃剑”,个人与技术、政府与技术之间是相互促进的主客体关系。《人工智能读本》并不全是说教性质的文字,在“试一试”中的辩论赛环节让同学通过亲身实践,更加了解人工智能对于社会的多方面影响。通过对于科技是一把“双刃剑”这一事实的了解,同学们可以更好地将学习知识与社会的背景联系在一起,深刻体会科学中的人文素养,增强社会责任感。

(三)科学哲学:提升课程思辨性

以往研究发现,国内学科教材中关于科学史和科学社会学内容较多而且呈显性,而对于科学哲学的融入内容不够,且不鲜明。[3]科学哲学融入科学教育无疑可以提升学生的思辨性,帮助学生建立起对于科学正确而全面的认识。例如,《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”中,引入人工智能伦理,通过介绍人工智能面对的挑战、人工智能的具体应对策略,让小学生了解人工智能技术发展的同时也要重视可能引发的法律和伦理道德问题,明白人与人工智能之间的关系以及处理这些关系的准则。通过“读一读”先让学生明白伦理概念,再用一幅画让学生思考在算法的发展下,人类与机器人的关系如何定义,向学生传递树立人类与人工智能和谐共生的技术伦理观。通过这种方式,可以帮助学生逐步建立完整的科学观,全面且思辨地看待科学,提升学生思辨性,进而提升科学素养。

三、HPS教育理念融入小学科学课程的实践建议

《人工智能读本》作为一套理论与实践相结合,具有知识性与趣味性的儿童科普读物,着重引导小学生培养科学创新意识,提升人工智能素养,产生求知探索欲望。但《人工智能读本》作为HPS融入小学科学课程的初始,仍存在教育资源不充分、内容结合较浅等不足,为了将HPS教育更好融入小学科学课程,可从以下三方面加以改进。

(一)开发HPS教育资源

HPS教育需要教育资源的支撑。HPS教育资源来源广泛,无论是学生的现实生活,还是历史资料,都可以提供契机和灵感。《人工智能读本》中收集了大量与人工智能相关的故事和现实案例,都可以作为教育资源,从各个角度达到科普的目的。在新媒体时代,进行HPS教育资源开发时,应当注意借助最新的信息与通信技术增强资源的互动性,如互动多媒体技术、虚拟现实技术、增强现实技术、科学可视化技术等。在传统的科学课堂教学中,主要是通过图片文字讲解,实验演示及互动来开展。这种形式对于现实中能接触到的实验内容,如常见的动植物、可操作的物理化学实验等,比较容易开展。而对于地球与宇宙科学领域的知识,或者一些已经不存在的动植物,则只能通过图片视频进行展示,不容易进行实验展示。通过虚拟现实技术、增强现实技术等,则可以虚拟出世界万物,如不易操作的物理化学实验、已消失的动植物等都可以通过虚拟现实的手段得以呈现。这些技术或能使教学内容变得生动形象,或通过营造沉浸感以使学生有更佳的情境体验,或让学生与教学资源进行交互从而自定义内容,服务于学生科学素养提升的终极目的。

(二)对小学科学教师进行培训

HPS教育的关键是从社会、历史、哲学等角度对自然科学内容进行重新编排,并不是将大量的内容或学科知识简单相加,这对教师能力也提出了更高要求。目前,人工智能教学领域常常出现“学生不会学、老师不会教”的状况,《人工智能读本》作为内容翔实有趣的读本可以弥补一部分缺失。但与此同时,也需要提升教师的教学能力与知识储备。HPS教育理念不仅仅针对历史中的科学人物,所有的学生主体也是历史中的主体,他们也身处于社会中,并且对于生活中的各种科学现象有着自己的思考。所以教师身为引导者,需要注意到学生的思考,深入挖掘,鼓励他们对所思内容进行反思并付诸实践。科学史和科学哲学应当成为科学教师教育项目中的一部分,这能让科学教师更好地理解他们的社会责任。为此,对职业科学教师进行HPS培训便是必要的。

(三)多场景开展小学科学教育

科学素养不是空洞的,它来自学生的认识体验,并从中获得生动、具体的理解和收获。《人工智能读本》作为方便携带的读本,不仅可以在小学科学课堂中作为教材使用,也可以应用在其他场景,如研学旅行、科技馆等场所。课堂学习只是小学科学教育中的一个环节,家庭、科技馆等也可以进行科学教育。例如,科技馆与博物馆可以以科学家和历史科学仪器为主题举办展览,展览中融入HPS教育理念,学生在参观和学习过程中学习有关科学内容。一些历史上大型的科学实验,学校教室或实验室无法满足条件,但在大型的场馆中可以实现。例如,研学旅行作为目前科学教育中最受欢迎的方式之一,已被纳入学校教育教学计划,列为中小学生的“必修课”,正逐渐成为学生获得科学知识的另一个途径。研学旅行作为一种集知识性、教育性、趣味性和娱乐性为一体的旅游形式,通常伴随着知识教育的过程,包括科学知识的普及,所以也是开展小学科学教育的重要场所。在该场景下,运用《人工智能读本》等新兴手段进行科学教育往往取得事半功倍的效果。

结语

目前,HPS教育理念已经积极尝试运用到小学科学教育中,包括学校内的正式学习以及学校外如科技馆、博物馆、研学旅游中的非正式学习之中。其中,科技史以时间维度为线索创造丰富资源的同时也可以提升课程趣味性;科学社会学以科学与社会之间的相互关系帮助学生理解科学本质,提升科学素养;科学哲学则以哲学的视域审视科学的诞生提升学生思辨能力。未来,HPS教育结合小学科学则需要更深入,在资源开发、教师培训以及应用场景等方面加以改进,为提升国民科学素养做出努力。

参考文献:

[1]袁维新.国外科学史融入科学课程的研究综述[J].比较教育研究,2005,26(10):62-67.

[2]张晶.HPS(科学史,科学哲学与科学社会学):一种新的科学教育范式[J].自然辩证法研究,2008,24(9):83-87.

[3]丁邦平.HPS教育与科学课程改革[J].比较教育研究,2000(06):6-12.

篇3

人工智能和机器学习的进步速度如此迅猛,我们的社会将迎来一些重要的伦理和经济问题,应对这些问题恐怕会费心费力。

总体而言,人工智能(AI)和物联网将同时改变互联网和全球经济。在未来5年内,我们可以预期人工智能和机器学习将会被整合到各种各样的技术中,这些技术包括数据交换和分析。这将带来巨大的机遇,如全新的服务和科学突破,人类智力的提升,以及它与数字世界的融合。

在人工智能领域存在相当大的不确定性,如决策转由机器执行,缺乏透明度,技术变革将超过治理和政策规范的发展。自动化可能会深刻地改变行业,影响就业和公共服务的交付。政府和社会需要为其影响做好准备:

经济和社会必须为人工智能以及物联网带来的颠覆做好准备。

在人工智能的设计和部署中,必须优先考虑伦理问题。

人工智能和自动化将带来全新的社会经济机会,但对个人和社会的影响和取舍还不清楚。

人工智能正改变着我们的决策方式,我们必须确保人类仍然处于“驾驶座”的主导位置。

在社会内部和社会之间,人工智能的益处分配将不均衡,进而加剧当前和未来的数字鸿沟。这种现象发生的风险极高。

人工智能世界的治理与伦理问题

人工智能引发了对伦理问题的广泛担忧。技术人员表示,这项技术需遵从人类的价值观,在人工智能系统的设计、开发和部署的每一个阶段,都必须优先考虑伦理层面的问题。

目前,人工智能和相关技术正在开发和部署,短期内将需要大量的投资和努力,以避免对社会和人类造成意想不到的影响。在未来,我们需要把焦点放在研究上以及有效的管理架构上,以确保人工智能技术带来的是契机,而不是损害。目前,开发算法的工作仍然由人类完成。对我们所做的事,我们仍拥有些许控制。

然而,如果我们把这类工作拱手相让给中介机构,而中介机构又让算法来设计算法。那么在五年内,开发算法的工作可能就不是人类在做了,而是人工智能在掌控。是否将出现这样的前景:我们打交道的中介机构将被人工智能替代。

此外,人工智能引发的重要考虑事项涵盖了隐私、透明度、安全性、工作性质,以及整体经济。例如,基于面部识别技术可以提升用户在社交媒体上的体验。但同样的技术也可以用来提升监视效果,牺牲个人隐私。亦或是,如果人工智能成为社交媒体网络和在线平台的永久功能,在这些平台上,算法被用来管理在线体验、有关自由选择和偏见的问题将会加剧。人们将对数据收集和决策的透明度和责任性感到担忧。这种担忧将会加速伦理原则的制定。而这些原则的作用是什么?用以指导人工智能的设计和部署。

一个社会如果完全以数据收集为基础,那么从商业角度来看,在没有适当的民主监督和平衡的情况下,将助长社会过度依赖监督。机器提供了太多自动选择,人类无需过多思考,从而失去了某些自我决策的机会。

数据分析技术产生的自动化将对人类行为和决策产生更大的影响。

政府将如何应对人工智能带来的更大的经济和社会影响?政府是否具备这样做的能力和资源?在政府内部,由于政策的制定和调整越来越多地受到数据的驱动,人工智能可能会带来一种根本性的决策调整。此外,人工智能可能成为未来政策选择的一种决策工具,而且使用起来可能会草率而不透明。

物联网和人工智能的发展将为政府决策提供科学依据,并帮助它们快速应对民众的需求。

许多人预见,未来几年将展开一场激烈的竞争,以争夺商业人工智能领域的霸主地位。尽管这可能会推动创新,并有可能颠覆当前的市场结构,但也存在竞争方面的担忧。预测者认为,在可预见的未来,如今的领先科技公司将会控制人工智能市场。

人工智能对互联网经济的影响

一些人认为,预测人工智能是一种营销炒作,但很多业内人士和政府都在为人工智能的普及做准备。CB Insights估计,2016年超过50亿美元的风投资金流向了人工智能创业公司,比前一年增长了62%。人工智能为创造新工作、新产业和新沟通方式提供了巨大机遇。

随着人工智能和自动化在各个行业推动重大结构变革,工作的本质将发生改变。随着人工智能获取用户数据,改变产品和服务的交付方式,许多现有的工作岗位可能会被取代。如何适应变化的步伐将是未来一项重大的全球性挑战。

与人工智能和物联网相关的项目引领了我们很长一段时间,提升了我们现有的技术,让普通人生活更加方便。

人工智能系统和技术可以改变工作的性质,让员工能力得到提升,从而减少人类之间和国家之间的不平等。人工智能让我们承担和解决更大的挑战。正如一份调查报告所显示,“人们的大脑和互联网之间的距离会变得越来越近,而两者之间的交叉会变得越来越复杂。”

机器与机器之间的通信增加了成本压力,人们正在被取代。这只会随着时间的推移而不断增加,这对经济有好处,但会对就业提出挑战。

人工智能为科学研究、交通运输和服务提供带来了巨大潜在收益。如果可访问性和开源开发胜出,人工智能有可能给发达国家和发展中国家带来红利。例如,依赖农业生产的国家可以利用人工智能技术分析作物产量,优化粮食产量。在医疗保健领域使用人工智能可能会改变低收入地区的疾病检测方法。

人工智能是一种创造性的毁灭,它将淘汰许多工作岗位,但也将创造新的角色和工作岗位。

但是,社会本身是否已经准备好接受这种变化,我们是否为新型经济做好了充分的准备?对于发展中经济体而言,新技术总是能创造出更多的可能性,尽管部署人工智能(以及物联网)的基础设施非常重要。人工智能的好处也可能不均衡:对于依赖低技能劳动力的经济体,自动化可能会挑战它们在全球劳动力市场中的竞争优势,并加剧当地的失业形势,影响经济发展。

用于管理制造业或服务业的智能和服务,可能仍集中在发达国家。人工智能可能会在很大程度上加剧数字鸿沟,这将会带来政治上的影响。

确保互联网技术创造市场就业机会,且不会对就业市场造成损害,这是未来5年必须解决的一个挑战,也是国际上一个紧迫而严重的问题。

人工智能对互联网安全和网络智能的影响

算法开始做出决策,它们比人类决策更快,并且可以代表我们的意志。此外,系统越来越不透明。我们不知道他们在哪里,他们在做什么决定。

虽然安全与信任对人工智能的未来至关重要,但这项技术也可以帮助解决安全挑战。随着网络和信息流变得越来越复杂,人工智能可以帮助网络管理人员理解交通模式,创建识别安全威胁的方法。在基本的企业层面上,人工智能可以执行由IT帮助台执行的任务,比如解决员工的电脑问题。

这将为企业IT专业人员提供更多的时间来实现安全最佳实践,并更好地保护公司系统和网络。除了人工智能决策,人工智能还可以在网络上对日益增长的安全威胁进行分类。

篇4

科学家:

物理学家斯蒂芬・威廉・霍金(Stephen William Hawking):文明所产生的一切都是人类智能的产物,从国际象棋和围棋人机大战的结果来看,生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。人工智能一旦脱离束缚,将以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。

斯坦福大学计算机科学院教授、谷歌首席科学家Yoav Shoham:未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

企业家:

微软CEO 萨提亚・纳德拉(Satya Nadella):未来的AI世界,人和机器的关系不是非此即彼,而应该是人机携手,共创未来。

谷歌CEO桑达尔・皮查伊(Sundar Pichai):关于AI反噬人类的担忧,从长远来看,AI必将提高人类的生活质量。

百度公司创始人李彦宏:人工智能等技术其实没有这么可怕,可以为人们所用,基本上只是披着狼皮的羊。

创新工场创始人李开复:人类面临最大的问题是失业,而不是被机器取代以及机器有了意识去控制人类。

学者:

篇5

关键词:人工智能 情感 约束

中图分类号:TP18 文献标识码:A 文章编号:1007-3973(2013)001-085-03

1引言

人工智能(Artificial Intelligence,AI)自从20世纪50年代产生,经过长期发展,已经有了长足的进步,并且已经深入到社会生活的诸多领域,如语言处理、智能数据检索系统、视觉系统、自动定理证明、智能计算、问题求解、人工智能程序语言以及自动程序设计等。随着科学技术的不断发展,现在的人工智能已经不再是仅仅具有简单的模仿与逻辑思维能力,人们也越来越期待人工智能能够帮助或者替代人类从事各种复杂的工作,加强人的思维功能、行为功能或是感知功能。这就要求人工智能具有更强的情感识别、情感表达以及情感理解能力。通俗的说,为了使得人工智能对外界的变化适应性更强,需要给它们赋予相应的情感从而能够应对这个难以预测的世界。

在赋予人工智能“情感”的过程中,面临着许多的问题,有科技层面上的,也有社会学层面的。本文在这里只讨论其中一个比较基本的社会学问题:“人工智能情感约束问题”,即关注于如何约束赋予给人工智能的情感,不至于使其“情感泛滥”。情感指的是一种特殊的思维方式,人工智能具有了情感后的问题是:人工智能的情感是人类赋予的,人工智能自身并不会创造或者控制自己的情感。如果赋予人工智能的情感种类不合理,或者是赋予的情感程度不恰当,都有可能造成“情感泛滥”并导致一些灾难性的后果。例如,当人工智能具有了情感之后,如果人类自身管理不恰当,有可能导致人工智能反过来伤害人类。尽管目前我们只能在一些科幻作品中看到这种情况发生,但谁也不能保证未来有一天会不会真的出现这种悲剧。

本文第二章对人工智能情感研究进行了概要性回顾,第三章对如何约束人工智能情感进行了尝试性探讨,最后一章对全文进行了总结。

2人工情感发展情况概述

随着科学家对人类大脑及精神系统深入的研究,已经愈来愈肯定情感是智能的一部分。人工情感是以人类自然情感理论为基础,结合人工智能、机器人学等学科,对人类情感过程进行建模,以期获得用单纯理性思维难以达到的智能水平和自主性的一种研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感机器识别与表达、人工情感机理等四个方面的内容。其中,尤以人工情感机理的研究困难最大,研究者也最少。

目前人工情感在很多领域得到了应用和发展,比较典型的是在教育教学、保健护理、家庭助理、服务等行业领域。在教育教学方面比较典型的例子是德国人工智能研究中心发展的三个方案:在虚拟剧场、虚拟市场和对话Agent中引入情感模型和个性特征来帮助开发儿童的想象力及创造力。在保健护理方面比较典型的是家庭保健与护理方向,如Lisetti等人研制的一个用于远程家庭保健的智能情感界面,用多模态情感识别手段来识别病人的情感状态,并输入不同媒体和编码模型进行处理,从而为医生提供关于病人简明而有价值的情感信息以便于进行有效的护理。服务型机器人的典型例子是卡内基梅隆大学发明的一个机器人接待员Valerie。Valerie的面孔形象的出现在一个能够转动方向的移动屏幕上时可以向访问者提供一些天气和方位方面的信息,还可以接电话、解答一些问题;并且Valerie有自己的性格和爱好,情感表达较为丰富。当然这些只是人工情感应用领域中的几个典型的例子,人工智能情感的潜力仍然是巨大的。

尽管关于人工情感的研究已经取得了一定的成果,给我们带来了很多惊喜和利益,但由于情绪表现出的无限纷繁以及它与行为之间的复杂联系,人们对它的运行机理了解的还不成熟,以致使得目前人工情感的研究仍面临着诸如评价标准、情感道德约束等多方面问题。所以必须清楚的认识到我们目前对于人工情感的计算乃至控制机制并没有一个成熟的体系。

3对人工智能的情感约束

正如上文所述,如果放任人工智能“情感泛滥”,很有可能会造成严重的后果。为了使人工智能技术更好的发展,使智能与情感恰到好处的结合起来,我们有必要思考如何对赋予人工智能情感进行引导或者约束。

3.1根据级别赋予情感

可以根据人工智能级别来赋予其情感,如低级别人工智能不赋予情感、高级别人工智能赋予其适当的情感。众所周知,人工智能是一门交叉科学科,要正确认识和掌握人工智能的相关技术的人至少必须同时懂得计算机学、心理学和哲学。首先需要树立这样的一个观点:人工智能的起点不是计算机学而是人的智能本身,也就是说技术不是最重要的,在这之前必须得先解决思想问题。而人工智能由于这方面没有一个严格的或是量度上的控制而容易出现问题。从哲学的角度来说,量变最终会导致质变。现在是科学技术飞速发展的时代,不能排除这个量变导致质变时代的人工智能机器人的到来,而到那个时候后果则不堪设想。因此,在现阶段我们就应该对人工智能的情感赋予程度进行一个约束。

根据维纳的反馈理论,人工智能可以被分成高低两个层次。低层次的是智能型的人工智能,主要具备适应环境和自我优化的能力。高层次的是情感型的人工智能,它的输入过程主要是模仿人的感觉方式,输出过程则是模仿人的反应情绪。据此我们可分别将机器人分为一般用途机器人和高级用途机器人两种。一般用途机器人是指不具有情感,只具有一般编程能力和操作功能的机器人。那么对于一般用途的机器人我们完全可以严格的用程序去控制它的行为而没必要去给他赋予情感。而对于高级层面的情感机器人来说,我们就适当的赋予一些情感。但即使是这样一部分高层次的情感机器人,在赋予人工情感仍然需要考虑到可能会带来的某些潜在的危害,要慎之又慎。

3.2根据角色赋予情感

同样也可以根据人工智能机器人角色的不同选择性的赋予其不同类型的情感。人类与机器合作起来比任何一方单独工作都更为强大。正因为如此,人类就要善于与人工智能机器合作,充分发挥人机合作的最大优势。由于计算机硬件、无线网络与蜂窝数据网络的高速发展,目前的这个时代是人工智能发展的极佳时期,使人工智能机器人处理许多以前无法完成的任务,并使一些全新的应用不再禁锢于研究实验室,可以在公共渠道上为所有人服务,人机合作也将成为一种大的趋势,而他们会以不同的角色与我们进行合作。或作为工具、顾问、工人、宠物、伴侣亦或是其他角色。总之,我们应该和这些机器建立一种合作互助的关系,然后共同完任务。这当然是一种很理想的状态,要做到这样,首先需要我们人类转变自身现有的思维模式:这些机器不再是一种工具,而是平等的服务提供人。

举例来说,当机器人照顾老人或是小孩的时候,我们应该赋予它更多的正面情绪,而不要去赋予负面情绪,否则如果机器人的负向情绪被激发了,对于这些老人或者小孩来说危险性是极大的;但是,如果机器人是作为看门的保安,我们对这种角色的机器人就可以适当的赋予一些负向的情绪,那么对于那些不按规则的来访者或是小偷就有一定的威慑力。总之,在我们赋予这些智能机器人情感前必须要周到的考虑这些情感的程度和种类,不要没有顾忌的想当然的去赋予,而是按分工、作用赋予限制性的情感约束,达到安全的目的。

3.3对赋予人进行约束

对人工智能情感赋予者进行约束,提高赋予者的自身素质,并定期考核,并为每一被赋予情感的人工智能制定责任人。

纵观人工智能技术发展史,我们可以发现很多的事故都是因为人为因素导致的。比如,首起机器人杀人案:1978年9月的一天,在日本广岛,一台机器人正在切割钢板,突然电脑系统出现故障,机器人伸出巨臂,把一名工人活生生地送到钢刀下,切成肉片。

另外,某些研究者也许会因为利益的诱惑,而将人工智能运用在不正当领域,或者人工智能技术落入犯罪分子的手中,被他们用来进行反对人类和危害社会的犯罪活动。也就是用于所谓的“智能犯罪”。任何新技术的最大危险莫过于人类对它失去控制,或者是它落入那些企图利用新技术反对人类的人的手中。

因此为了减少这些由于人而导致的悲剧,我们需要对这些研究者本身进行约束。比如通过相应的培训或是定期的思想政治教育、或是理论知识的学习并制定定期的考核制度来保证这些专家自身的素质,又或者加强对人工智能事故的追究机制,发生问题能立即查询到事故方等等,通过这样一系列强有力的硬性指标达到减少由于人为因素导致悲剧的目的。

3.4制定相应的规章制度来管理人工智能情感的发展

目前世界上并未出台任何一项通用的法律来规范人工智能的发展。不过在1939 年,出生在俄国的美籍作家阿西莫夫在他的小说中描绘了工程师们在设计和制造机器人时通过加入保险除恶装置使机器人有效地被主人控制的情景。这就从技术上提出了预防机器人犯罪的思路。几年后, 他又为这种技术装置提出了伦理学准则的道德三律:(1)机器人不得伤害人类,或看到人类受到伤害而袖手旁观;(2)在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;(3)在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。这一“机器人道德三律”表现了一种在道德忧思的基础上,对如何解决人工智能中有害人类因素所提出的道德原则,虽然得到很多人的指责,但其首创性还是得到公认的。尽管这个定律只是小说家提出来的,但是也代表了很多人的心声,也是值得借鉴的。

那么对于人工智能情感的约束呢?显然,更加没有相应的法律法规来规范。那么,我们就只能在赋予人工智能情感的道理上更加的小心翼翼。比如,我们可以制定一些应急方案来防止可能导致的某些后果,也即出现了问题如何及时的处理之。另外我们在操作和管理上应更加慎重的去对待。也希望随着科学技术的发展,能够在不久的将来出台一部相应的规章制度来规范人工智能情感的管理,使之更加精确化、合理化。

4结束语

人工智能的情感研究目的就是探索利用情感在生物体中所扮演的一些角色、发展技术和方法来增强计算机或机器人的自治性、适应能力和社会交互的能力。但是现阶段对这方面的研究虽然在技术上可能已经很成熟,但是人工智能情感毕竟是模拟人的情感,是个很复杂的过程,本文尝试性的在人工智能发展中可能遇到的问题进行了有益的探讨。但是不可否认仍然有很长的道路要走,但是对于人工智能的发展劲头我们不可否认,将来“百分百情感机器人”的问世也许是迟早的事情。

参考文献:

[1] 赵玉鹏,刘则渊.情感、机器、认知――斯洛曼的人工智能哲学思想探析[J].自然辩证法通讯,2009,31(2):94-99.

[2] 王国江,王志良,杨国亮,等.人工情感研究综述[J].计算机应用研究,2006,23(11):7-11.

[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究综述[J].江南大学学报(自然科学版),2012,11(04):497-504.

[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.

[5] Valerie.The Roboceptionist[EB/OL].http://.

[6] 张显峰,程宇婕.情感机器人:技术与伦理的双重困境[N].科技日报,2009-4-21(005).

[7] 张晓丽.跟机器人谈伦理道德为时尚早[N].辽宁日报,2011-11-04(007).

[8] Peter Norvig.人工智能:机器会“思考”[J].IT经理世界,2012(Z1):331-332.

[9] McCarthy J.Ascribing Mental Qualities to Machines1A2. In Ringle M,editor,Philosophical Perspectives in Artificial Intelligence1C2,Humanities Press Atlantic Highlands,NJ,1979:161-195.

篇6

但即便象棋下不过、围棋下不过、力气也比不过,机器依然并不能取代人类。

人工智能会说“爱你”,但它不会真的爱你,它像一面镜子,照耀的是人类的善与恶,美与丑,爱与恨。杨澜说,一想到未来手机、空调都在搜集她的数据,这种裸奔的感觉让她不寒而栗。

杨澜又说,科幻片中的人机大战是天方夜谭。

不出意外,柯洁输了。

关于那个在第一局比赛结尾露出的笑容,柯洁的解释是:当然是苦笑了,因为我很早就知道我要输了。而搜狗总裁王小川点评比赛时则更加直接:我们的关注点不是机器能否赢,而是机器用什么姿势赢。所有人在这一回输赢问题上达成了共识。

资本与市场宣称,这已经是人工智能的时代了。

4月末,我们带着一个普通人对人工智能的疑问,与过去一年内探访了30多个人工智能研究机构及实验室的杨澜深谈。当时,她就预判道:AlphaGo还会赢。

果然,可以算得上波澜不惊,天才少年柯洁的完败远并不如去年李世石的失败那样让世人震惊。

杨澜说:她还记得,1997年,当IBM的电脑深蓝战胜了国际象棋冠军卡斯帕洛夫的时候,她曾经在一个节目中断言,这样的事情在围棋领域是绝对不可能发生的。

因为蕴含着古老东方智慧的围棋变化万千,它的布局走法可能性多达10的172次方,比宇宙中的原子数量还多。不止杨澜,围棋专家和人工智能领域的专家,当时也纷纷断言:机器要在围棋比赛中战胜人类,至少还要一百年。

但是只用了不到20年的时间,机器就做到了。数次人机大战,机器都无可辩驳地完胜了人类,甚至表现出了创造力和直觉这些人类最引以为傲的特质。当AlphaGo去年走出让人汗毛倒竖的那一步棋之后,当时比赛的解说员称,再管它叫电脑程序已经不合适了,你完全能感觉到人工智能的“智能”的存在。

什么是人工智能?它们和人类是什么关系?世界上最顶尖的人工智能实验室里都在发生什么?为什么很多名人都让人们警惕人工智能?人机共生,人类准备好了吗?

对人工智能做了深度探访的杨澜一一给出了回答。 杨澜在成为工业文明遗迹的伦敦旧码头上思绪万千

Q=《北京青年》周刊

A=杨澜

相较人工智能,人的可贵之处恰恰在于我们不完美

Q:你在去年春节前就启动了这个专题片的策划,那时AlphaGo还没赢李世石呢,为什么这么有先见之明?

A:是,我团队都在说“杨澜姐你太超前了”。我的确对人工智能特感兴趣,人工智能不只是一个新的技术,它会影响到人类的生产、生活,以及人和人之间的相处模式和这个社会的运行模式。我只是隐隐约约地觉得它的影响要深远得多,而且这一次的规模会来得很大。同时在我身边像李开复、张亚勤这些老友,在说到自己的一些研究和投资的方向的时候,也在不停地说到人工智能。让我觉得这件事情非常了得,却很少有人能说明白。

那我就觉得其实观众也会有同样的兴趣和同样的迷惑,以一个媒体人的嗅觉,我觉得应该去探索这件事儿。

Q:你们花了非常大的工夫,做了到目前为止最全面也最有深度探索人工智能的纪录片,我想知道这个过程中你有什么独特的发现和结论?

A:有很多有意思的发现。

人的智能有很多局限性,比如我们经常健忘,然后我们三分之一的生命是在睡眠中度过的,还会做各种各样奇怪的梦,从纯产出的角度,我们肯定不像人工智能一样可以24小时在那计算和下棋。还有,我们的头脑不是用来处理大数据的,我们不可能同时做50万人的人脸识别,我能认清楚我身边这两百个人已经很不错了。我们人类有这么多的局限,那我们的可贵之处在哪里呢?其实这个可贵之处恰恰在于我们不完美。

正如采访中麻省理工学院的一个教授对我说的,“会忘记是人的高级智慧的体现”,如果我们什么都记得住,我们一进了这个屋子,“啪啪”眼睛一拍照,把@个屋子哪有灰尘哪有小虫子等所有细节都记住,我们就不可能把自己有限的能力集中到我们需要去创造、需要去抓住核心的东西上。

所以人类不用妄自菲薄,不要以为一个机器在围棋上不可战胜了,它就在各个方面都超越了人的智慧,人的智慧是有它的独一无二之处的。

Q:走访世界各地做了这么多功课,有没有哪些场景让你受到震撼?

A:我觉得这种震撼既有你看到的东西,也有你可以想象的东西。

当我到了伦敦的旧码头,作为工业文明的遗迹,那边有很多遗留下来的旧的大库房,库房之间有很多铁的天桥。这个当年是多么宏伟,那种蒸汽腾腾,你都可以想象到伦敦的雾天的那样的场景,但是今天,静谧极了,已经成为一个纯粹的历史遗迹了。

于是你会想到工业革命当时在英国,把几百万的农民变成了工人,让他们进入了城市。其实每次大的技术革命和工业革命发生的时候,就会产生剧烈的社会矛盾,我觉得很震撼的就是:那接下来的这一次技术革命,又会带来怎样的社会冲击?

Q:李开复先生说,“人工智能将会给传统行业带来血腥的颠覆”,“十年之内,50%的工作会被AI取代”, 你怎么看?

A:我更愿意说成是未来十年,50%的工作都会受到冲击和影响。受冲击和被取代不是一个概念,至于是不是“50%的人都要失业”,我认为需要商榷。

但是有些行业肯定会受到比较大的影响。比如卡车司机这个职业,他们有可能在十年之内,真的失去他们的工作,那他们该去哪里?甚至如果将来都是无人驾驶的话,我们都不需要拥有私家车,就像今天的共享单车一样,将来汽车也是共享的,那会对现在的汽车制造业产生多大的影响?

还有,如果说蒸汽机替代了人的肌肉的话,那么这一次的人工智能会替代掉很多简单的白领工作,人的脑力工作也被取代了。比如说律师的助理,可能就是一个人工智能,它可以帮助你查到所有需要的案例和卷宗。比如医生的助理、读片师,人工智能已经可以掌握到一千万个关于肺癌的影像资料,就不需要一个老专家在那儿看半天,还有一定的失误率。还有记者,如果你只是做一个五个W的报道,那现在的人工智能已经在帮你做了。所以这一次的影响更深远,涉及到的人会更多。

Q:无人驾驶使卡车司机失去工作的场景,你觉得在十年之内真的会出现吗?

A:我认为在十年之内,无人驾驶是最容易实现的改变。你可以想象,在一些发达国家或是像中国一样的高速公路非常发达的国家,负责运输的司机可能真的不需要了。也许某些场合还需要有一个人把手放在方向盘上,随时准备着人机切换,但是从理论上讲,起码不需要现在这么多司机了。

我们不排除外星人进攻地球的可能性,但是不是现在就要马上建立一套防御系统呢?

Q:在片子中我们看到,科学界对人工智能的认知也不尽相同,甚至还有核心观点分歧,是这样吗?

A:对。我会发现,人工智能这个领域的科学家,往往都是抱有比较乐观的态度。他们认为人工智能不过是自动化的一个新阶段而已,最终还是可以被人类所控制的。

但是,周边学科的科学家和社会公众,似乎对于人工智能的忧虑更多一些。也可能是因为我们看了不少科幻小说和科幻电影,所以就总会假想,如果机器有了人类不可控的能力怎么办?

斯坦福大学有一位人工智能的专家卡普兰教授,他说,其实人对于未知的,但是又很有力量的东西,总是心怀恐惧的。卡普兰教授比喻,这就像一个人在爬树,然后你就会担心他要是爬到月亮上了该怎么办呢?

Q:你自己更倾向于那种观点?

A:我更倾向于:我们眼前有足够多的事情需要去做。与其去担心一个所谓的智能机器将来会统治我们,不如好好来考虑一下随着人工智能的发展,我们的交通规则是否需要改变,失业的人如何能够维持一家庭的生计,还有由于大数据的发展所带来的我们的隐私问题到底该怎么保护?我觉得眼前的这些事情,已经足够我们烦恼了。

就像我采访哥伦比亚大学诺贝尔奖的获得者、著名的脑科学专家埃里克,他是研究人的学习能力、人的神经系统的。他说“I worry more about Trump”,他说我更担心的是川普的问题,而不是未来的一个机器……这就像说,我们不能够排除外星人来到地球的可能性,但我们现在是不是要马上建立一个专门为了防御外星人入侵的防御系统呢?

Q:所以你是偏向于更乐观,也更务实的态度?

A:我不代表乐观,我觉得技术永远是一把双刃剑。

人类其实可以仰望星空,让自己的想象力无边地驰骋,但是人工智能将要带来的冲击已经在敲门了,我们还是应该首先来应对目前就已经要发生的改变。而且技术的革命和科技的发展,在人类的历史上,从来没有因为人主观的乐观或者悲观,就停止脚步。从来没有!

Q:科幻片中说的那种人机大战是天方夜谭吗?

A:我认为是天方夜谭!在科幻电影里,是机器人一伙,人类一伙,两方产生了不可避免的冲突。但在现实生活中更可能出现的情况是,一群人带着自己的机器,和另外一群人带着他们的机器,所产生的冲突。所以最终要协调的,还是人的利益冲突,而不是说机器突然有了整体的自我意识,决定要把人给颠覆了。这个我认为只是科幻的场景。

Q:那么你觉得机器人可以具有人的价值观和思维方式吗?

A:我认为它们可以因为被输入的游戏规则而展现出某种人类表达的特质。比如说它被输入了“在某种情况下就要说我爱你”,但这并不意味着它感受到了爱;或者说它可以下一千万盘棋,但它不会像一个人那样,真正地享受下棋的过程。

实际上,我们现在只能证明,人工智能在一些需要处理大数据的垂直的领域具有超快的学习能力,但并没有证据表明它们会形成自我意识。

Q:所以你如何看待柯洁5月份将与AlphaGo进行的终极人机大战?(本刊记者采访杨澜时比赛还未进行)

A:虽然从我的判断上来说,它还是会战胜柯洁的,但是从另外一个角度来说,明明知道面对AlphaGo胜率并不高,柯洁还是愿意接受这个挑战,我觉得这就是体现了人类的智慧。而且,即便它能够战胜世界上所有的围棋高手,So what?

中国现在应该开始为迎接人工智能的时代做制度安排

Q:你认为,人工智能最有可能从什么领域进入到常规的日常生活?

A:我想到的是三个方面,一是无人车,就是无人驾驶,它可能会改变我们的出行方式。

第二个,在中国的场景下,就是医疗。因为中国的医疗资源实在分布得太不均衡,医疗能力实际上是集中在一些大城市的顶级专家的手里。但是因为中国人口基数大,医疗数据库也非常庞大,所以如果能够借用人工智能,就可以给那些乡镇级、社区级的医生提供非常好的诊断服务。

第三个方面,如果你要问李开复先生,他可能会说金融了,但是实际上中国在高频交易这些方面还是有限制的。比如股票,如果它用高于人零点几秒的能力下单的话,它就不得了了,但是它也会扰乱整个市场的秩序。

但我觉得,在法律援助这个方面其实是可以考量的,其实现在律师的很大一部分工作是在搜索和查询相关案例和相关法律条例,以及其他类似案件的判决情况。如果有了人工智能的帮助,可能以后基础的法律咨询就不需要请那么昂贵的律师了。

Q:这次的采访涉及全球,你感觉人工智能领域,中美之间的差距大不大?

A:其实中美两国在人工智能领域都是属于第一方阵的,在技术发展的水平上,我觉得各有优势。

的确在原创核心技术的突破方面,还是美国的实验室能力相对要强。但中国是一个大数据的王国,而所谓的机器学习,实际上是大数据学习,这是我们的天然优势。美国在这方面的资源远不如中国。

Q:中国之前的发展受益于所谓的人口红利,在人工智能时代到来的时候,这会不会成为劣势呢?

A:我认为不能简单地说是优势还是劣势。因为中国巨大的人口规模,会使中在大数据采集和人工智能的应用层面,具有得天独厚的优势。

但另一方面,过去几十年我们依赖低的劳动力成本和出口所带来的制造业的繁荣,也必然要进入一个新的阶段。如果你不能提升品牌的价值和品质,那么劳动力这个优势,其实正在迅速失去。

那如果很多蓝领要失业了,那这些蓝领应该怎样安排?会给社会带来什么样的不安定因素?这都是应该去面对的。

Q:你会有这样的担心吗?

A:我觉得现在就应该做制度安排,这个事情其实是说来就会来的。你现在去东莞看看,很多流水线都是无人工厂了,工人被机器人取代就是眼下正在发生的事情。所以我觉得像特朗普还在跟美国失业的蓝领工人说“我们要把工作从中国人的手里夺回来的时候”,我心里一阵冷笑,其实拿回美国也只是给机器人做而已,因为这是一场巨大的技术革命,它已经不是从什么人手里夺回来一份工作而已。

所以我觉得像中国这样的制造业大国应该开始做一些制度的安排,来更好地应对随之而来的比如失业问题,再培训问题,和税收的问题。

人工智能必然会带来伦理问题,而且已经就在眼前了

Q:斯坦福大学的李飞飞教授多次提到人工智能带来的伦理问题,你是什么观点?

A:人工智能一定会产生伦理问题,而且涉及很多层面。比如微软做了一款人工智能情感机器人“小冰”,当时放在网络上进行测试的时候,就有很多人故意教它说脏话,教它说一些种族主义和充满暴力的话,那么这个人工智能就像我们说鹦鹉“嘴脏了”一样学会了。其实人工智能就像一面镜子,它照耀的是人类的善与恶,美与丑。

还有像自动驾驶,如果出现一个两难的局面,它究竟应该牺牲车上的一个人,还是牺牲路边的很多人,甚至包括孩子?你要把这个选择权交给一个机器吗?如果你交给了机器的话,那么谁又会出钱买一辆将要牺牲自己的车呢?这是一个极致的问题,却不能说它不存在。

还有隐私问题,它其实也是一个伦理和道德范畴的事情。比如商业机构在多大程度上可以使用我的消费行为数据?我在多大程度上愿意暴露我的私生活?在什么样的环境不允许装这个数据采集器?我觉得这些其实就在眼前了。

Q:这么多的伦理问题又应该怎么解决呢?

A:我觉得这是我们需要面对的问题,但不是无解的问题。就像当年从马车变成了汽车,才有了红绿灯和人行道。社会的治理方式和制度的安排,一直都是跟着技术的发展而不断调整和改变的。

Q:前面说到人口红利和大数据采集,但是这其实也面临一个信息安全的问题。事实上我们今天的消费行为甚至个人资讯已经是透明的。

A:这一点我就觉得挺恐怖的,将来绝不仅仅是某些明星和名人的隐私,而是我们每个人的隐私、我们的消费习惯是不是能够得到足够的保护?因为我不想将来我得到的每一个推送,其实都是人工智能很有心机、很有套路地推送的。你还以为是你自己的要求,其实是别人对你的行为的预测。

并且我觉得中国当下应该开始研究隐私方面的法律保护了,可以说中国是摄像头最多的国家,从人脸识别到人工智能的使用,能够让像G20峰会这样的大型会议在开办之前,可以非常高效地抓到在这个城市潜伏的嫌疑犯,因为他们哪怕是一个侧面(被捕捉)都可以被认出来。

技术进步在推动社会发展的同时,法规和制度建设上的配套一定要跟上。

在我有生之年,我的工作不可能被人工智能替代

Q:你目前的生活跟人工智能的关联度高吗?

A:我主要是用手机,我们家还没有用扫地机器人。包括我现在,到睡觉的时候我都希望把手机彻底关掉,或者把它放到另外一个房间去充电。但是一想到未来的手机也好,空调也好,都在搜集我的数据,我就感到不寒而栗,好像有一种裸奔的感觉。所以我觉得未来可能我会比较有意识地把我的工作环境和我的卧室分开,虽然可能分开了也没啥用……

Q:你觉得自己的生活需要跟机器人隔离开吗?

A:那不会。如果是在工作的场景下,我可能很需要一个人工智能的助理,来帮我安排一些琐碎和需要数据处理方面的事情。比如我做采访之前做功课,需要好几个研究员或编辑来做案头的工作,其实将来可以让语音搜索和图像搜索帮助完成很多工作,所以我觉得它还是会为我的工作和生活带来很大的便利的。

Q:你觉得你的工作会被人工智能替代吗?

A:不会,我认为在我的有生之年,我的工作不会被取代。因为我不仅仅是在做一个简单的播报的工作,背后还有很多综合性的思考。我觉得机器在短期内,没法取代我的工作。

关于人工智能的“权威碰撞”

许多年前有一本小说,书名是《海底两万里》。这部幻想作品中的人,发明了一艘使用核动力的潜水艇。如今这早已经成为寻常的现实了。

某种意义上,我们已经进入了前人所预言的时代。

硅谷流行这样一句话:预测未来的最好方式就是创造它。

人类创造了机器,机器又改变了人类。

2016年5月,一辆特斯拉汽车在美国佛罗里达州与一辆拖车相撞,驾驶员丧生。事故原因是处在自动驾驶模式的汽车没能在明亮的天空下发现拖车的白色车身。

特斯拉汽车“自动驾驶”是一项辅助功能,每一次自动驾驶启动时,车辆都会提醒驾驶员“请始终握住方向盘,准备随时接管”。

放开方向盘,意味着人类将一部分掌控权交给了机器。

这也带来了更多的法律和伦理问题:

例如谁来为交通事故负责?

当汽车成为智能的移动空间万一有黑客入侵,谁来保证乘客的安全呢?

机器也将面临人类的道德困境:

在f不得已的情况下,自动驾驶汽车到底该优先保护车内的乘客,还是路边的人群呢?

如果选择后者,谁又会愿意购买一辆会牺牲自己的汽车呢?

英国著名物理学家史蒂芬?霍金多次公开表示对人工智能的担忧,他认为:“对于人类来说,强大的人工智能的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”

特斯拉汽车公司掌门人伊隆・马斯克甚至宣称:随着人工智能的发展,我们将召唤出恶魔。

马文・明斯基是人工智能的先驱之一,他有个著名的说法“如果我们走运的话,机器或许会把我们当宠物养着。”

但是,更多人工智能专家的观点是:

现在担心邪恶的智能机器人奴役人类,就像担心火星上人口过剩。――百度前首席科学家吴恩达

在整个人类历史上,其实只有两次大事件是从根本上改变了人类生存状态,一次是工业革命,一次是农业革命。这一次的智能革命是堪比这两次革命的重大事件,可能更为重要。而且,要快速的多。――牛津大学人类未来研究院院长尼克・博斯特罗姆

人工智能会改变人类社会。因为作为一个那么强大的科技,它不光是针对情感、或意图,它也是对智能本身,对有知觉的存在本身的一个挑战。这是一个很好的哲学社会话题。――斯坦福大学人工智能实验室主任李飞飞

篇7

人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类:[2]

第一类:弱人工智能Artificial Narrow Intelligence (ANI),弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。

第二类:强人工智能Artificial General Intelligence (AGI),人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。

第三类:超人工智能Artificial Superintelligence (ASI),牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。

讨论人工智能对法律的影响,我们也会从人工智能的“三大类”入手,各个阶段的人工智能,对法律产生的影响将是不尽相同的。

在第一类,弱人工智能(ANI)阶段,由于人工智能智能处理较为单一的问题,且发展程度并没有达到“模拟人脑思维”的程度,所以人工智能仍然属于“工具”的范畴,与传统的“产品”别无二致。我们目前所处的阶段,就是弱人工智能阶段。虽然无人驾驶汽车、无人机等新产品的出现,给传统法律体系带来许多新问题,引发许多新思考,但仍然属于传统法律体系能够解决的问题。

2016年2月,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴发生碰擦,所幸无人受伤。美国高速公路安全管理局(NHTSA)却确认,根据美国联邦法律,用于自动驾驶的人工智能系统可以被视为司机。那么是“司机”、谷歌,还是驱动汽车的算法、感应器以及所有控制系统来负责交通事故呢?

这起事件引发了许多人对人工智能卷入犯罪案件中责任主体界定模糊的问题的思考。人工智能究竟是不是具有法律和道德意识与行为能力的主体?如果不是,那么当人工智能触犯了他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?此时,有哪些法律能够用来保障这些人的权益?如果承认人工智能是有行为能力的主体,那么又该如何为这些“人工智能”定罪量刑呢?

我国《产品质量法》第四十三条规定:因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。

显然,在弱人工智能阶段,机器仍然属于工具和产品的范畴。传统的《产品质量法》在这个阶段内仍然可以直接适用。但随着技术的发展,这种情况就会马上改变。

在第二类,强人工智能(AGI)阶段,由于人工智能已经可以比肩人类(笔者认为这是人工智能的“奇点”,在短期内人工智能将极大地超越人类),同时也具备了具有“人格”的基本条件。

由于机器可以像人类一样独立思考和决策,该阶段的人工智能应该和人类一样,成为独立的主体享有权利,并对自己的行为承担责任,这将体现在财产、继承、侵权、刑事等各个方面。这个阶段的法律已经基本无法直接套用,人工智能将对传统法律体系产生巨大的冲击和颠覆。

在第三类,超人工智能(ASI)阶段,该阶段的人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑。人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个新的社会。

人类的法律体系仅在人类社会生效,在这个阶段,人类规则的制定已经无法影响人工智能,因为人工智能已经超出了人类社会的范畴。随着技术的进步和人工智能的自我改进,一个比我们聪明100倍、1000倍、甚至10亿倍的大脑也许能够随时随地操纵这个世界所有原子的位置。此时的人工智能已经不是人类可以理解和想象,人类的法律体系也会随之消亡,或转化成另外的形态而存在。

基于此,笔者大胆地提出人工智能对法律影响的几点预测:

第一,成文法将会萎缩甚至消亡。可以预见,人工智能和新技术留给立法的时间将会越来越少,越来越多的极其复杂的新问题将迅速出现,成文法将成为历史;

第二,法律体系将彻底颠覆。随着人工智能从低到高的发展,工具终将将具备人格、超越人格,我们传统的法律体系也将失去存在的基础;

第三,法律将在“创新”与“生存”之间不断博弈。创新的伦理问题将伴随人工智能发展的全过程,是否允许技术创新迈向“奇点”,用以保卫人类的“生存”,或许会逐渐成为立法者考虑的核心问题。但立法者很可能会发现,创新也许是人类社会发展的规律。

现阶段,人工智能已经逐渐对法律领域产生影响,并引起了法律领域的变化,我国的法律体系应当重视变化,积极向人工智能时代转型升级。

例如,人工智能技术在合同审查、资料收集、尽职调查、材料翻译等领域为法律工作提供极大的便利,并且在工作效率上具有明显的优势。这会进一步影响到司法机关、公证机构、律师事务所的用人模式,可能会减少这些机构对入门级技能新人的雇佣和培养。

再例如,由于创新技术和人工智能的发展,新事物产生的时间大大缩短,由新事物而引发的新案例将越来越多。而现阶段,人工智能还不能够独立地提供法律服务,更不能独立地对案件进行分析和审判。这需要大量的法官、检察官和律师们积极拥抱和学习新技术,并且需要一定的深度。这对于传统法律人来说,难度很大。专业人才可能会在一段时间内出现严重的断层,法律在短期内对新事物新案例也将无暇响应。法律应当重视内生规则(如网规)、判例的作用,通过柔性、大众化、平台化的规则治理,通过数据和算法来预判行为,来适应这种“断层”。

国外各种关于法律技术的发展早已日新月异,在电子证据管理(Everlaw/Cicayda)、区块链文件保存技术(Factom)、预测案件审理(Juristat)、案例研究(Ravel Law)等领域各种新型法律服务工具早已百舸争流,甚至还有各种交流法律技术的论坛(Legal Technology Forum/Legal Tech Asia/ABA TechShow/Legal Tech NY)。可能因为国内的法律服务市场还不够大或者经济利益不够多,关于法律技术的研发远远滞后,法律领域的创业公司多是新媒体或者法律服务平台。[3]我们应该利用互联网发展的优势,重视法律技术的研发与推广。

篇8

人类从此不再一直奔跑在未来后面

“未来”作为一个时间概念,在人类的思想意识里一直都是前置的。几乎所有人都知道,对于自己来说,“未来”是无可选择的选择。所以,每个人都对未来抱有美好的憧憬和无限的期待。如果您认真阅读了《撞见未来》这本书就能体会到,在从猿类动物开始到人类长期的进化中,在今天,时间概念的“未来”已经走到了尽头,“未来”也许从此不再仅仅属于人类。我们面对的未来再也不是把今天当做起点的时间的射线,而是对各种概念、思想、意识进行完全的重构和解构的宏大场域。在这个场域里,一切都将被重新定义,包括我们人类,包括即将出现的人工智能概念下的超人,等等。从此,世界将不再是我们的,而是“未来”的。

时间概念的历史就像是一个平衡木,几千年来人类在上面艰难舞蹈。虽然常常忽左忽右,战战兢兢,甚至波折颇多,但今天我们终于走到了平衡木的尽头。在这平衡木的尽头,人类只要存在就不能自由滑落,而是必将如滑行到一定速度的飞机一样腾空而起,舍弃时间,舍弃历史,奔向“未来”。毫无疑问,信息技术、人工智能和量子科学把我们已经带到了这样一道门前,门前是我们,门后就是未来。作者初次谈到《撞见未来》的时候,把它定义为关于未来学的著作。从他的努力来看,作者用洪荒之力和惊天勇气将信息技术、人工智能和量子科学等一系列新科技知识和概念聚合起来,作为他书中的“未来”的“起点”。

在人类所认知的范围内建立的逻辑和伦理体系中,人类在这个世界长期占有统治地位,概念、思想和意识几乎是全人类的私属财产,这已经成为一种普遍认同的客观和自然。当宇宙伦理和更新的科技逻辑摆在大家面前,成为大家思考问题的依据的时候,人类在伦理上的优势地位是否还能确保?这成了一个现实的问题。我是谁?我来自哪里?这些将不再是人类的自我追问,而是超人的来自未来的隔空喊话。作者试图把这喊话尽可能清晰准确地传给我们现在的人类,但人类从来没有有意识地试图把一些喊话传给这个现实世界的其他生物。所以,我们和地球上的其他生命从来就没有建立真正的共生关系。而今天,在人类即将走进未来场域的时候,我们需要和未来的一切共生、永生。

跨出这一步,进入共生和永生的人类最终将把时间和历史从我们的头脑中抽离,成为一种现实的物质。从此,人类不再慌张地一直奔跑在“未来”的身后,而是在“未来”的场域里舞蹈、歌唱。过去我们太慌张,经历了太多的战争、瘟疫,承受了太久的饥饿、匮乏。现如今,《撞见未来》告诉我们这一切都将改变,作者系统分析了可再生、可分享、可替代等“七可”,为大家描述了一个思想和意识之外的全新世界。这个世界是我们人类新的家园吗?在这个世界里的人类还将是不是今天的人类?我们在“未来”身后观望,却无法冷静,被这种疑惑紧紧伴随。

人类到底相信不相信未来

好R坞等机构的大制作下出品的各类著名灾难片等等,超炫的未来描述和表现,让太多人类几乎都患上了未来恐惧症。这使人分化成两类:一种是彻底的虚无主义者,从来不相信有什么实在的未来,他们眼里的未来就是即将到来的明天,后天好像就与他们再无任何关系。一种是或轻易或全身心地把未来交给上帝的人。不管是信众眼里的上帝还是牛顿眼中的上帝,这些人都将面向他托付自己的灵魂和终生。在人类历史中,对于这个问题几乎从无可解,更无中间路线可行。毫无疑问,这两类人都不是“未来”的信徒,前一种人的“未来”只是他们预期的享乐,后一种人的“未来”只是他们心目中的想象。

《撞见未来》一书试图找到这样一条途径,尽力把靠近真实的未来呈现在所有人面前。这是很困难的事情,于是作者就从他对全球能源互联网的思考和探讨,从他在学习和工作中的积累与沉淀出发,行囊里装上信息科技、人工智能和量子科学等概念,走向未来。作为未来学概念下的研究成果,《撞见未来》里面显然运用了许多预测手段。这些预测不是凭空而来,而是来自于作者系统的学习和长期的探讨、思考。从《撞见未来》的系统表达来看,这种思考已经自成体系,能够启发人的心智,使人有能力、有胸怀去领悟未来。

在这个体系里,《撞见未来》的第一部分提到的“七可”源自具体,带来的却是颠覆,比如可再生、可替代、可预测、可分享等等,显然超出了我们现有的理论体系和认知能力。虽然作者对此给予了很技术很系统的解释,但让人实实在在地信以为真,恐怕还有很长的路要走。我们的生活真的可以是这个样子吗?在更多人无法克服对未来的怀疑与恐惧的情况下,怎么去验证它呢?面对这个问题,作者在书的第二部分给出了答案。这一部分的题目叫人类的解放事业。确实是,科技解放了人类,在这场行走中信息技术的传播是第一功臣。那么解放之后是什么样子?必然带来自我的重生、经济的革新、政治的重构、文化的转型等等。

《撞见未来》的第三部分指出了未来场域下人所面临的机遇和挑战,这也许是人类面临的最后一次最为宏大悲壮的选择。最终,人类要么成为超人,要么被超人替代,从而进入被选择的未来时空中。其实,在人类甚至生物历史上,这些带着生命概念的物种所有的选择的正确率和准确率都是极低的。特别是在遥远的上古时代,这种正确率和准确率极低的选择为进化论提供了条件,因为这种高代价使每个物种都在慎重选择,保持着渐变的演进态势,这更多的体现的是一种对旧有体系的维持。

渐变是进化论的基础,是一种相对机械的演进方式。而今天,日益发达的信息技术、人工智能和量子科学以及大数据、云计算、物联网从技术上解决了选择的准确性和正确性问题,突变成为常态,物质流动的高速度使选择变得近乎悲壮,速度快得天翻地覆,常常是你生我死,死而复生的惨烈场面。随着物质流动速度越来越快,对寻常世界的颠覆必将成为寻常的事情。《撞见未来》显然准确地把握和科学地分析了这一点,作者在用思想和未来竞赛,虽然无法分出输赢,但总是比我们看得清晰、辽远。

当算法和技术清算了伦理、逻辑等概念

科技的本质是发展了的工具。人类创造了工具,但工具也在改变着人类。从最初的石器到现代的信息技术、量子科学、人工智能,人类对于自己创造的工具或者今天的科技越来越难把握。直接的感受就是科学家们研究越深入,发现越多却感觉对未来世界的了解越少,越无知,以至于几乎无法把控,甚至是从来没有把控过。这符合轮回的规律,未来世界的不可知是一种真理存在,跨越此世奔向彼世的人毕竟凤毛麟角。技术进步和迷惑认识的剪刀差越大,我们距离未来世界一定就越近。于是,牛顿走向了神的世界。这种无力感是不是一种轮回?人类终将走到这个轮回的终点,我们的一切对于下一个轮回来说,就是洪荒世界。那么,下一个轮回所面临的世界其实就是超人或者神的世界,牛顿只是比我们更早更透地看到了这一点。

在已经走进我们的信息技术、人工智能和量子科学的时代,一旦越过横亘在我们面前的那道门槛走进“未来”,一切都重新定义之后,现实世界中的伦理、逻辑等一大堆人类运用娴熟的概念就会突然失效。随之而来的是大数据、虫洞、量子力学、人工智能等扑面而来的概念,依托极其强大的科技、算法技术作为重构未来世界的词汇将统治一切。由此造成人类所拥有的所有概念的集体失效,难道不是对人类的一次全面清算?这是必然?还是偶然?《撞见未来》告诉我们,这当然是一种必然,也是一次全面彻底的清算。就像我们走进一个殿堂之前,都会在门前稍作停留。不管你有意识还是无意识,这种停留既有整理衣冠的需要,也是整理情绪的表现。就像衣服上的灰尘和不良情绪一样,在面向未来的这道门前,伦理、逻辑这些概念必将毫不可惜地被抛弃,被无情覆盖。

在超人的世界里,全新的概念体系为我们建筑了一个什么样的未来?这将不是我们所能掌控的话题,因为,随着科学技术的发展,在“未来”世界,我们将失去主导地位,被超人所取代。众多伦理、逻辑、概念集体失效的背后,是人类让出占统治地位的主角位置。当然,当前对超人的塑造看似还掌控在我们的手里,几乎可以不用杞人忧天。然而,人工智能终究有一天会超过我们人类,这个节点一定是人工智能能够自我创造智能的那一天。让人工智能模仿人是我们人类的事情,让人工智能超越人将是人工智能自己的事情。《撞见未来》明确地告诉我们,科学技术已经进入几何级的升级速度,这意味着科学技术在能量概念下将面临着爆炸性的增长。那么,按照这个道理分析,这个节点距离人类还会远吗?

当人类被超人完全取代,退到配角地位,我们也许会重新认识这个世界。在宇宙伦理、超人逻辑作为规范的未来世界里,科学技术带给我们的不仅是永生,还是全新算法下的变身。变身之后的我们人类在这个宇宙处于什么位置?是在宇宙的演艺厅的观众席上看超人肆意演出?还是被超人扔到各类动物或者其他生命形式充斥的纷乱舞台?对此,作者在《撞见未来》一书中没有明确的答案。毕竟,在量子时代,作为未来学概念下的预测技术还没有脱离物理概念,问题的提出并未必然带有方向。《撞见未来》描述的本来就是一个多维度视角下构建的关于“未来”的宏大场域,用二进制的传统思维解答人类和未来命题显然还显无力。

人类为超人设置算法,但按照线性的发展趋势来分析和认识,超人终有一天会有属于自己的算法,或者他们终将牢牢掌控算法,直到“超”超人的出现。在人类的算法世界里,今天的我们并不比洪荒时代的人类掌控更多的人性,爱、恨、生、死,甚至梦境、幻想等等,在人类的世界里,总有那么一些的不可掌控的东西要交给神或者上帝。但在超人逻辑或未来宇宙逻辑下的算法技术中,今天的这些不能掌控必将被超人掌控。那么,什么人性,什么梦幻,都可能会物质化并技术地随意组合。也许,超人的世界里从此彩虹不一定七色,开水未必L烫,雪山不再清冷,超人的世界不由我们假设,人类也不会懂。

超人是人类的再生还是毁灭

在概念上,大多数宗教强调的神性其实是放大了的人性,是人性自我挣脱意识的现实反映,或者说是人性自我救赎过程中的集体映像。那么超人是不是应该具有超人性?超人性是不是就是我们一直所崇敬的神性?那么,超人是不是也意味着就是我们想象中的“神”?人类造神几千上万年,被自己所创造的神统治了几千上万年,突然人类自己升级成为了“神”,会不会像婴儿来到世界一样,一切都是陌生和新鲜的,一切又都不是自己的,除了这条生命。超人跳出人类圈子,在“神”的世界里还要像一个婴儿一样,呀呀学语,蹒跚学步,迈出神的生命旅程的第一步。

连通现实和未来的通道就是物质,动力来自于科学技术。于是,死亡,从形而上走进形而下。作者在《撞见未来》一书中写到,死亡成了物质的一种转换形式,而不是生命的消亡。这种生命概念的绝对物化,是放在未来世界里重新构建的。有了物质的支撑,也许这个生命概念将会融入类似今天的操作系统、量子力学、信息技术等内容,那么,升级我们人类将成为非常技术的可能和扑面而来的现实,而不是手术刀和各类肌肉、脏器的生硬搏杀。血液里流淌了太多技术元素的超人还是不是人?如果超人是人,超人将意味人类的升级或者再生;如果超人不再是人,那么是不是就意味着我们人类将面临覆灭,或者退回动物的群落,由超人取而代之?

超人的一小步,甩开人类千万步,轻易跨越了人类和超人之间的千沟万壑。随着科技的发展、意识的升级、人与世界的重构,必将建立全新的逻辑和伦理体系,假设中的宇宙伦理、超人逻辑将成为超人的生存和发展准则,这必将给当下的道德体系和思想意识带来无情的碾压,一些基本的概念从此失去了意义,人类有可能从此不再崇高。这种不崇高使人彻底失去了积累万年的万物灵长之优越感,之后人类面临的将是什么心情?也许,进入超人的轮回里,我们人类的区区几万年只是一个痕迹?一位院士曾经说过,不要说拯救地球,地球没有问题,有问题的是人类,需要拯救的是人类。确实是,地球存在了几十亿年,而人类存在时间与之相比不过是那么短暂的一瞬,短暂到对地球的影响几乎可以忽略不计。没有人类,地球依然在,失去了人类,地球依然在。在我们还无法跳出我们的世界,遇到未来的挑战时,超人会拯救我们吗?

一切科学的最终结果就是哲学。虽然科学和技术取得了极大的进步,但科学依然远远落在哲学的后面。天地广阔,却不能任鸟飞。超越一切,却无法超越理性。这是人之为人的一种根本状态。当科学技术以及其他一切学科都回归工具本质,唯有哲学才能给人类留有生存的空间,对接未来的世界的人类。毫无疑问,这是人类的法则,也是我们作为生命的意义所在。但面对未来,信息溢出、权利溢出、概念溢出等等,让意义从此不再纯洁无瑕,意义退位,力量上位。力量是什么?就是物质,物质靠什么推动,眼见的就是信息技术、量子力学和人工智能等等。

篇9

“这确实是个很好的问题。”食谱推荐公司Yummly的研究负责人Gregory Druck如此回应道,但这肯定不能被称为一个真正的答案。

这的确令他有点为难。技术在设计时通常都要优先理解并满足人的喜好。同在台上的厨房整合技术公司Innit的副总裁Ankit Brahmbhatt干脆接过了话筒,“每个人的体质不同,对健康的定义也不同。说到底这是个生活方式的问题。我们得先有关于你更全面的数据,才能判断什么对你是健康的。”

人工智能到底能在多大程度上替代人,也成为一年一度的西南偏南上最热闹的话题。

西南偏南诞生在美国德克萨斯州的奥斯汀。每年3月初,这个全球性的盛会会吸引数十万人,和硅谷以大公司、创投行业为主的活动不同,西南偏南会吸引各个行业的人。大家在这里看新的电影,发现创业灵感。更重要的是,讨论技术已经带来的改变,以及它能把人们带到哪里去。

其中有不少想象空间。比如Yummly,这家来自硅谷的公司能利用人工智能技术分析你曾经使用的食谱数据。来自德国的Foodpairing则声称,机器分析食物成分时最大的弱势是嗅觉不及人类灵敏,但是通过训练,机器的精准程度可以超过大多数未经训练的普通人。

还有更激M的Innit。和一些创业公司费尽心思想把吃饭这件得高效不同,这个硅谷公司发现了一个悖论,一些人根本不愿意被剥夺下厨的权利。于是他们正在硅谷红木城的总部,测试一个全新的“数字化厨房”。

这个厨房用一个软件平台控制家电,告诉用户家里食材的存量。选定菜单后,还会提醒用户要买多少食物。等到准备妥当,连接的厨房电器就能完成初步烹 饪。

“我们想用技术帮上班族解决工作日吃饭的问题,让他们知道下班后要买什么食材、买多少,回家后能更快吃到晚餐。”活动结束后,Brahmbhatt对《第一财经周刊》说。

这听上去“很硅谷”,善于观察问题并提出解决方案。其实更有意思的是,这家公司发现,在一些细分领域当中,人其实没必要过分智能。

“数字化和自动化的确能帮助减少浪费,包括钱和食物。但我们也知道,有人喜欢下厨。Innit在做一项用户调研时发现,对自动化最集中的需求并不是烹饪,而是洗碗。也就是说,用户想让机器帮他们完成的是,恰恰是那些他们最不喜欢做的事情。”

至于机器和人的关系,这个古老的命题也随着人工智能的蔓延重新摆在了人类面前。至少,人工智能不再仅仅是一些极客想把一切自动化的设想和实验,也不只是好莱坞电影里经常出现的无所不能的机器控制人类造成的恐慌。它真的就在我们的生活中发生。

真正的答案,也正如百度首席科学家吴恩达曾预言的那样,“人工智能是新的电能,可以改变很多行业。”既然是电能,就意味着未来它可能无处不在。

西南偏南互动大会首席项目官Hugh Forrest说:“人工智能毫无疑问是2017年最热门的话题。虽然过去我们也做过很多AI的内容,但从未像今年这样集中。”

卡内基梅隆大学计算机科学系主任Andrew Moore长期关心教育,面对可能的人工智能未来,他想分享教育系统有必要做出哪些变化。迪士尼则会分享它如何用人工智能为其主题乐园提供更好体验,毕竟迪士尼乐园不可能一直停留在几十年前的模样。就连那些运动员,都会在训练中尝试使用人工智能,这可能意味着未来的赛事较量,除了天赋,更多是训练方法的比拼。

而如果你知道西南偏南最早是个音乐节,就会觉得在这里听到人们探讨人工智能和音乐如何结合是顺理成章的了。

用人工智能编曲已经不算什么新鲜事了。但是一些音乐公司正在用人工智能制作背景音乐,卖给可口可乐等大公司。

就连Google也参与了进来。去年6月,Google Brain宣布推出Magenta,一个能让计算机制作出“出众而艺术性”的音乐的产品。

不过这也带来一些新的问题,音乐能够做到更加了解我们吗?我们想让自己的情绪反过来影响我们吗?这种响应会不会把气氛搞糟?毕竟粉丝们可能会爱上一个音乐人,但很难爱上一台计算机。

很多人都爱上过iPod。这可能是这个世纪初音乐与技术最简单直接的结合形式。当技术演变成了人工智能,这件事情变得有趣,它像人的左脑和右脑的一场博 弈。

音乐这个感性世界与数字和代码编织的理性世界碰撞了一下。它们如何理解彼此,最好的例子可能是一个指令,就是当你让一个人工智能助手播一首歌时说的那句话。

不要小看这个指令。亚马逊音乐的团队在奥斯汀市中心的一个小酒吧里办了一场活动,当谈到如何让亚马逊的人工智能助手Alexa和亚马逊音乐结合时,主讲人感慨,仅仅是让Alexa播放一首歌的指令就十分复杂,一首曲子的元素包括歌手、专辑名称、音乐流派、歌词内容等不同元素,情境也同样如此,比如遇上用户说“我心情不好,给我放点音乐”这种情况,此时,亚马逊音乐收录了多少首歌曲是一回事,Alexa能在多大程度上明白用户的意思,便是另一回事了。

如果有人去年来过西南偏南,大概还会记得当时的一个历史性事件。

那是AlphaGo与韩国棋手李世石之间的对决。结果你已经知道了。大多数人不相信机器会胜过人类,他们会觉得这是个黑天鹅事件。

Google的高明之处除了技术本身,还在于用一种直接有力的方式向普通人展示了自己在人工智能领域的技术进展―大概没有什么方式比人机大战更能引起人们的兴趣,更直观。

当AlphaGo连续赢到第三场时,来自Automated Insights的Robbie Allen正在准备他在西南偏南上的一场对话。Automated Insights是曾做出帮记者写稿的机器平台WordSmith的公司。

“Google很了不起。”Allen走下台对《第一财经周刊》评论。在观看这场人机大战时,人们产生了一股担心会被人工智能抢走饭碗的恐慌。此后,AlphaGo的连胜加剧了这样的担心。

Allen参加的对话主题正好是“人工智能发展后,人类未来的工作怎么办”。

“理论上人工智能确实达到了一个新阶段,它代表人工智能可以模仿人类的重复性劳动,还会比人做得更好。但我认为,它离人工智能的实际应用还有一定距离,当人工智能可以帮助某些行业完全实现自动化,找到商业化的应用场景,我才会认为它真正达到了实际应用的程度。”Allen说。

“实际应用”换句话说,是一部分人会开始失业。

距离AlphaGo战胜李世石不到一年,人们就已经在拉斯维加斯的国际电子消费展上看到各个汽车制造商对无人驾驶汽车的设想。无人驾驶汽车的技术标准得到厘定,厂商纷纷推出概念车。

Google剥离了无人驾驶汽车部门成立单独的公司Waymo、Uber的无人驾驶汽车在匹兹堡和旧金山上路,虽然后者在上路当天就因犯了些错误被叫停(最近还因为收购Otto被Google告上法庭)。蝴蝶效应是,政府和城市设计师已经开始思考无人驾驶汽车上路后对城市生活规律的影响、如今的城市基础设施是否能和无人驾驶汽车配合等问题了。

若低估技术带来的影响,也许不久后就要承担相应的后果。自从人工智能技术高速发展,特别是无人驾驶汽车上路以来,硅谷以外的世界与硅谷仿佛形成了两股力量―硅谷正在想办法让一切自动化,而美国最大的就业群体之一卡车司机,则忧虑正在某处测试的无人驾驶卡车会让他们失去工作。

机器与人的矛盾和对抗从来没有停止过。远至第一次工业革命,近至互联网诞生。随着人们越来越习惯于数字化生活,机器和人的关系会更加纠缠不清。人工智能这件事会变得更复杂,还可能,带来很多伦理问 题。

来自设计咨询公司IDEO的Jason Robinson和麻省理工学院(MIT)媒体研究室的Philippa Mothersill认为,目前我们并没能解决如何不让机器真正危害人类的创造力和情绪,尽管随着技术的精进,这一点可能会实现。

在一场名为“人类、机器和工业设计的未来”的讨论当中,他们向挤满了整个会议室的观众发问,“我们如何教会计算机创造性思考?”

Mothersill曾是宝洁公司的产品设计师,专注于让计算机可以通过识别人类的语言,将物理元素变成实际产品。为此她设计出EmotiveModeler,这种工具能够将形容词和情绪转化为模型。她寻找到了一种能够让工业设计―无论是家具还是电子产品―更好传递人类情感的方式。

如果没读博士,Mothersill现在应该依然是个出色的设计师。但她如今的研究课题,却让一些设计师有点担心会失去工作。《连线》的Margaret Rhodes也在意这一点,即人工智能如何能提供更多的工作机会,这可能是技术进步为现代社会带来的最大的困扰。没有人希望成为技术进步的牺牲者。

不过在和大量的设计师交谈过之后,Mothersill和Robinson总结了“10件设计师希望机器能够学会的事 情”。

比如说,考虑使用产品的情境。好的设计师不仅会设想要创造的事物,还会思考它出现的地方。它应该摆在哪里?它所在的房间是什么样?周围都有些什么东西?如何能让计算机做到这一切?

或者说,如何抓住灵光一现的时刻。历史上,达达主义运动中的艺术家善于随机创作,通过将传统事物叠加创造新作品。我们能够教会计算机在向不同方向发散思考的同时,催生出全新且有价值的设计吗?

这些有趣的发现让他们意识到,设计师对机器的期待,其实充满人的色彩。Mothersill由此得出的结论是,人们最终需要掌握如何让机器变得有情绪,它们会产生独特的好奇心―而不仅仅是按照写入的程序工作。

如果你看过最新的007系列电影,影片中所描述的一切已经和NASA能做到的非常接近。

毕业于约翰・霍普金斯大学的Pavel Machalek此前在NASA工作,如今他创立了Spaceknow,为金融、政府和制造部门提供商业卫星的图像分析。这些卫星就像是“天空之眼”,看着地球上发生的一切。

“我们正在让整个物理世界数字化,且能够在这个基础上做很多事情。”Machalek说。按照他的说法,世界正在经历巨大变化,重新使用卫星数据的成本也在逐步下降。

不仅如此,Spaceknow正在建立一套人工智能系y,用各种各样的新方式来处理获得的数据。整个地球的数据都会被实时抓取,它会扫描、理解和讲述70亿人的日常行为。

这也意味着,它会重塑商业关系,让零售商更好地预见气候变化、作出设计决策。它的客户各种各样,有人想知道某个港口有多少船只到岸,或者有多少辆卡车被调到精炼厂运油。

它还有很多其他用途。对于新闻业来说,它能让人们尽快发现,叙利亚到底在发生什么。如果有人编造一些事实,它或许可以提供更客观的看法。这套被不断训练的人工智能系统能够接收各种各样的查找请求,截至目前它曾经收到的请求有,“查找一架失踪的飞机”“查找那些非法的攫金者”等,以及对某些政府公开的不实数据提供另一种解释。

Machalek表示,有朝一日想让Spaceknow的人工智能系统覆盖整个世界,让每个拥有智能手机的人都可以对真实世界的数据发起请求―这大概意味着你可以查看某个酒吧门外排队的人有多少。

零售业和广告业立即感受到了威胁,它们开始追求改变。除了面临新技术带来的新购买方式的挑战,另一件可怕的事情是,如果以后帮消费者做购买决策的是机器人,品牌该怎么办?

但这其实已经发生了。亚马逊的推荐算法就是最简单的例子。

在机器人眼里,一切都是数字。因此研究品牌效应的L2 Inc的Pooja Badlani就认为,如果这就是未来,品牌忠诚度这件事已经成为历史了,所有的品牌都要想办法和机器人共存。

但IBM iX的策略与设计负责人Robert Schwartz认为,品牌通过营销来影响消费者的态度和购买行为是一门艺术,它暂时还不会消失。

“那种居高临下教育消费者的时代结束了,”Schwartz说,“对品牌来说,推销自己的时代过去了,现在是展现自己的时候。消费者始终会受到一些时刻、一些瞬间的激发产生购物欲望,品牌要重新梳理自己的核心,决定在什么时间、什么地点来创造这些时刻。”

现在已经没有人讨论技术将如何重新定义传统行业,大家都认为这已经是事实了。至于这个改变将如何发生,“这是个缓慢的过程,所有技术公司和受到冲击的传统行业都是亦敌亦友的关系。”Schwartz对《第一财经周刊》说,毕竟说到底,它们都想争取消费者的数据。

所有人都要学会用新的方式和消费者打交道,也想延长消费者的注意力和停留时间。

硅谷已经有人提出了相应的方法论。Ch r is Messina曾是Uber的开发者体验负责人,也是Twitter上的“hashtag”(标签)的发明人。他在2016年提出“对话经济”(conversational commerce)的概念,认为在Facebook Messenger增加聊天机器人的背景下,未来会有越来越多的“聊天机器人”(chatbot)出现。这些小机器人可能分布在客服、销售等岗位。此时机器应该增加更多的“Conversational UI”,即聊天界面。

让聊天机器人取代人类的前提是赋予机器同理心。如果你对态度冷淡、反应迟缓的人类客服不满意,面对聊天机器人得到的同样是冷冰冰的回答,那么这样的技术进步可以说毫无意义。

相反,如果机器可以弥补人类的部分不足,例如冷漠、缺乏技能,那么人类反而可以从与机器的对话中获得更多好处。Messina举例说,如果聊天机器人可以给用户好的体验,那么每次对话同时,也是用户在主动提供数据。

这仅仅是零售业运用人工智能的开始。人们会渐渐分辨不清,人工智能究竟是在帮助我们购买产品,还是说服我们去购买它们?

麻省理工学院的研究专家Kate Darling在描述人工智能的走向时,表达了相似的观点。

Darling主要研究机器人伦理的问题。“接下来的几十年并不是说机器会一点点取代人类,而是自动化系统和人工智能系统将与人类协力合作,因为技术不是取代人类的能力这么简单。人们高估了机器能做的事情,而低估了它的缺陷。”

斯蒂芬・霍金在接受BBC的采访时曾更直接地说:“人工智能的完全实现,可能意味着人类的终结。”

身处这个行业里的人显然知道人们的恐惧。

人工智能发展协会前主席、微软人工智能研究院负责人Eric Horvitz在西南偏南的一场演讲中介绍Google、亚马逊、苹果、IBM、微软、Facebook等公司联合成立的Open AI时,主动引用了霍金、伊隆・马斯克和比尔・盖茨此前分别公开传达的对人工智能的担心。

这位美国工程院院士、在业内被称为AI先生的老人朗读了一段Open AI的协议内容,几大公司保证在互不竞争的前提下合作。正是因为技术进步这个趋势不可阻挡,大公司结盟和在一些问题上达成共识是保证技术真正为人类赋能的基础。

篇10

关键词:智能广告;广告产业;广告传播

随着人工智能技术的不断成熟,大数据分析处理与机器学习等技术的不断发展完善,一个与以往截然不同的智能媒体时代正在来临,而广告行业自然也面临着变革。一方面,媒体行业积极寻求智能化的步伐,催生了智能广告这一具有广阔前景与极大潜能的产业;而另一方面,“随着人工智能、移动互联网等技术的进一步成熟,媒体的智能化道路获得了源源不断的动力”[1],被机器学习能力与算法迭代加持的人工智能技术,正在为广告行业带来一场前所未有的变革。在广告行业智能化的变革中,传统广告行业不断地瓦解与重构,广告的运作模式与分发策略,相较以往也发生了不同程度的改变。在技术为行业带来变革与机遇的同时,因为技术发展不完善、监管能力滞后等因素所产生的潜在风险也不容忽视。这些机遇与风险为学术研究提供了一个全新的视角与切入点,本文将从智能广告发展溯源、智能广告的传播特征、智能广告时代的潜在风险三个维度进行剖析。

一、智能广告发展溯源

计算广告这一概念最早于2008年被提出,其核心是一种能够做到精准投放的广告投放机制。它在基于大量数据收集的基础上进行实时高效的计算,对用户进行场景画像,找到最优匹配的广告内容并定向投放给目标用户群体,由此能够将广告收益大幅拉升。这一广告投放机制在商业上取得了极大的成功,谷歌公司在2019年第一季度基于数字计算广告的营收就达到了373亿美元。计算广告在其诞生之后也在经历着不断的迭代升级。随着智能化浪潮席卷全球、人工智能技术与广告行业进一步融合,以计算广告为基础的智能广告应运而生。在目前国内对于智能广告的研究中,有学者对“智能广告”这一概念做出了较为清晰的界定,即“以数据驱动为基础,利用人工智能技术实现广告内容的耦合生产、精准投放与互动反馈从而个性化地满足消费者生活信息需求的品牌传播活动”[2]。智能广告在原先计算广告的基础功能上,进一步发展出了即时性内容生产与创造、精准化个性化内容分发、依据反馈数据进行广告效果优化等能力,对于整个广告产业链有了更加全面的渗透,从某种程度上来说,智能广告是对计算广告的进一步发展与升级。

二、智能广告的传播特征

人工智能技术对广告的深度介入,不仅使得广告的内容生产与呈现方式出现了改变,“对产业运作形态、产业链生态也带来了革命性变革”[3]。

(一)人工智能对内容生产的深度参与

相较于传统的数字广告,智能广告最大的特点之一就是人工智能技术对广告的创意策划与内容创作进行了深度的参与,智能广告的内容生产大部分由特定算法负责,相较于人类设计师,负责智能广告内容生产的人工智能可以进行不间断的自我优化升级,同时也能与最新市场动向相结合。例如,天猫的广告AI设计师“鲁班”,在2017年的“双11”活动期间,这一人工智能设计师共生成了4.1亿张海报。如果以每张海报花费20分钟的时间计算,将同等数量的海报由人类设计师来完成,总共将会耗时近300年的时间。由此不难看出,智能广告在生产效率与内容时效性方面具有极大的优势。而在广告的内容呈现方式上,智能广告最为核心的特征是“千人千面”的个性化内容呈现。由于广告内容的生产效率与数量脱离了人力的限制,使得智能广告能够依托用户画像等技术为基础,为不同的用户进行个性化的内容定制创作并加以针对性地投放。以前文提到的天猫AI设计师“鲁班“为例,在同一时间,使用不同的手机打开淘宝,APP首页所出现的广告海报均不相同;SaatchiLA的人工智能“沃森”,在为丰田汽车公司的新车型进行推广营销时,广告内容的呈现方式也显现出了相同的特征。该公司在Facebook上开始了一项运动———“ThousandsofWaystoSayYes”(成千上万种说Yes的方式),并且最终基于100多个不同的人口统计特征,生成了100余条针对不同用户群体的个性化广告。综合以上叙述我们可以发现,人工智能对于内容生产的介入,使得广告的内容生产进入了高效率的工业化生产时代,由此生产出的海量广告产品推动了广告个性化的呈现方式。

(二)基于用户画像的分众化传播策略

智能广告时代,广告的智能内容生产与呈现方式的转变,自然也促使广告的传播策略发生转变,而广告生产与传播重心也发生了较大的偏移。在广告的传播策略方面,传统的广告传播策略往往是基于广告理论、市场及消费者调查而进行制定的,由此所形成的传播策略针对的受众往往较为宽泛,投放策略较为粗放,所获取的传播效果也与预期有一定的差距。而智能广告的投放策略主要是基于用户画像,再通过大数据与算法对受众进行精细化划分,筛选出合适的广告受众之后再进行广告投放。最为典型的案例就是信息流广告,这一形式的广告广泛存在于社交媒体(如国外的推特、Youtube,国内的新浪微博、微信)当中。此外,智能广告在传播时会选择与内容信息进行深度融合,这一传播策略使得智能广告对受众的心理把握得更为精准,使得广告的商业化目的更为隐蔽。如前文提到的信息流广告,往往都与潜在受众所浏览的信息、咨询等相融合,“并且通过用户的刷新行为不断变化,更易于用户接受”[4]。智能广告在广告投放效果监测方面也同样与传统广告有着较大的不同,智能广告经过分发之后,可以实时根据后台的反馈数据进行广告效果监测。同时,智能广告在投放的同时往往会保留手中的反馈渠道,如Youtube在进行智能广告投放时所使用的反馈机制,用户可以根据自身的喜好程度,对投放给自己的广告进行意见反馈,这使得系统能够根据用户反馈对广告的传播策略进行实时调整,从而形成针对不同客户的不同投放策略。

(三)日趋完善的智能广告产业链

由于智能广告所取得的投放效果更为优异,因此广告主对智能广告的投放兴趣与投放预算正在逐渐增加,而这一系列的变化必然导致传统的广告产业链发生格局转变。目前,国内正在逐步形成一条完整的智能广告产业链,这一产业链的主体“包括智能广告技术公司、智能广告媒体、智能广告监测公司、智能广告数据管理公司、智能广告交易平台等”[5]。由于智能广告的传播主要依托于受众数据与用户标签,受众数据成为广告运营机构的核心资源,而拥有大量数据计算、分析、处理能力的智能广告技术公司在产业链中占据了较为核心的地位。如前文所述,由于广告的创意与内容则逐步成为了数据优化与算法计算的一个组成部分,广告的创意策划人才、资源正在逐步向幕后隐退,传统的广告设计公司在未来将会受到进一步的冲击。

三、智能广告时代的潜在风险

在技术为行业带来变革与机遇的同时,因为技术发展不完善、监管能力滞后等因素所产生的潜在风险也不容忽视。

(一)消费者个人层面

1.个人信息与隐私泄露风险

广告受众关切程度最高的一个潜在风险是自身的个人资料与隐私信息是否会遭到智能广告公司的滥用与泄露。由于大数据已成为众多智能广告公司的核心资源,其背后所蕴含的经济价值进一步助长了不当利用个人隐私信息的不良动机。由于智能广告的核心是建立在大量的数据搜集与分析的基础上,智能广告公司所抓取的数据中必然含有大量的用户隐私数据,因此用户个人隐私权的保护与广告公司的数据使用似乎正在形成一个无法调和的矛盾,如何处理用户隐私所带来的信息伦理问题,在未来也需要进行更加深入的思考与解决。

2.非理性消费风险

鲍德里亚在其《消费社会》一书中提到,“消费者总是怕‘错过’什么,怕‘错过’任何一种享受”。而智能广告在传播过程中往往与信息内容深度融合,对于消费者的心理把握更为精准,让广告的商业化目的更为隐蔽,而“广告的功能性美丽则唤醒了消费者内心的隐秘与欲望,产生购物的冲动”[6]。这使得消费者更容易受到智能广告的操纵,从而导致非理性购买行为。

(二)行业生态层面

1.数据孤岛导致的行业信息不平衡风险

一个良性的广告产业生态,往往是建立在行业内部的信息共享这一基础之上的。但是由于数据自身所带有的隐私性,加之数据在信息化、智能化时代往往蕴含有极高的经济价值,这也使得公司之间对于数据的共享意愿处于较低的状态,同时也促使了“数据孤岛”的出现,如何避免数据垄断的出现,如何在数据共享与公司利益之间寻找平衡,这需要整个行业的进一步思考。

2.广告内容工业化生产导致的广告文化属性下滑的风险

广告除了与生俱来的经济属性外,还包含了一定的文化属性,而智能广告的核心往往是追求经济效益的最大化,这也使得广告的文化价值可能会被忽略。目前的人工智能水平仍然处于弱人工智能阶段,如何使AI理解人类的情感与文化需求、如何保证机器生产的广告内容不只是冰冷的掘金机器,这一问题也需要引起重视。

四、结语

正如一些学者所言,“未来互联网发展和竞争的高地,就是对广域网络空间中的人与人、人与物、物与物实现其价值匹配与功能整合的高度智能化”[7]。广告行业的智能化已然是大势所趋,通过智能化的广告生产与运作,能够推动广告行业形成新的行业生态,提升广告产业的经济繁荣程度,对于整个经济社会的发展都具有积极作用。在智能广告为行业带来新的机遇与变革时,我们需要清晰地认识到技术与风险相互并存,而如何应对这些潜在风险,需要业界与学界进一步合作与思考。

参考文献:

[1]苏涛,彭兰.“智媒”时代的消融与重塑———2017年新媒体研究综述[J].国际新闻界,2018,40(1):38-58.

[2]姜智彬,马欣.领域、困境与对策:人工智能重构下的广告运作[J].新闻与传播评论,2019,72(3):56-63.

[3]李名亮.智能广告信息伦理风险与核心议题研究[J].新闻与传播评论,2020,73(1):76-84.

[4]唐英,黄丹旎.新《广告法》语境下微信信息流广告监管制度研究[J].当代传播,2020(1):86-88.

[5]廖秉宜.优化与重构:中国智能广告产业发展研究[J].当代传播,2017(4):97-101+110.

[6]蔡立媛,龚智伟.人工智能时代广告的“时空侵犯”[J].新闻与传播评论,2020,73(2):70-76.

篇11

1997年5月11日,名为“深蓝”的电脑毫无悬念地在标准比赛时限内击败了国际象棋男子世界冠军卡斯帕罗夫,从而证明了在有限的时空里电脑“计算”可以战胜人脑“算计”,进而论证了现代人工智能的基础条件(假设)――物理符号系统具有产生智能行为的充分必要条件(Newell and Simon,1976)是成立的。更有意思的是,2011年2月17日,一台以IBM创始人托马斯・沃森的名字命名的电脑在智力问答比赛中“狂虐”两位最聪明的美国人而夺得冠军,2016年3月9日至3月15日,“围棋名誉九段”AlphaGo在首尔以4:1的比分战胜了围棋世界冠军李世石九段,从而引发了人工智能将如何改变人类社会生活形态的话题。

人机环境系统交互的产物

众所周知,当前制约机器人科技发展的瓶颈是人工智能,人工智能研究的难点是对认知的解释与建构,而认知研究的关键问题则是对自主和情感等意识现象的破解。

在真实的人机环境系统交互领域中,人的情景意识SA(Situation Awarensss)、机器的物理SA、环境的地理SA等往往同构于同一时空中(人的五种感知也应是并行的)。人机环境交互系统往往是由有意志、有目的和有学习能力的人的活动构成,涉及变量众多、关系复杂,贯穿着人的主观因素和自觉目的,所以其中的主客体界线常常模糊,具有个别性、人为性、异质性、不确定性、价值与事实的统一性、主客相关性等特点,其中充满了复杂的随机因素的作用,不具备重复性。

在充满变数的人机环境交互系统中,存在的逻辑不是主客观的必然性和确定性,而是与各种可能性保持互动的同步性,是一种得“意”忘“形”的招拆招和随机应变能力。这种思维和能力可能更适合复杂的人类。凡此种种,恰恰是人工智能所欠缺的地方。

人机之间的不同之处

人与机器相比,人的语言或信息组块能力强,具有有限记忆和理性;机器对于语言或信息组块能力弱,具有无限记忆和理性,其语言(程序)运行和自我监督机制的同时实现应是保障机器可靠性的基本原则。人可以在使用母语时以不考虑语法的方式进行交流,并且在很多情境下可以感知语言、图画、音乐的多义性,如人的听觉、视觉、触觉等在具有辨别性的同时还具有情感性,常常能够理解到只可意会不可言传的信息或概念(如对哲学这种很难通过学习得到学问的思考)。机器尽管可以下棋、回答问题,但对跨领域情境的随机应变能力很弱,对彼此矛盾或含糊不清的信息不能有效反应(缺少必要的竞争冒险选择机制),主次不分,综合辨析识别能力不足,不会使用归纳推理演绎等方法形成概念或提出新概念,更不用奢谈产生形而上学的理论形式。

人与机器在语言及信息的处理差异方面,主要体现在把表面上无关的事物相关在一起的能力。尽管大数据时代可能会有所变化,但对机器而言,抽象表征的提炼,亦即基于规则条件及概率统计的决策方式与基于情感感动及顿悟冥想的判断机理之间的鸿沟依然存在。

人工智能与哲学

人类文明实际上是认知的体现,无论是最早的美索不达米亚文明(距今6000多年),还是四大文明之后以西方为代表的现代科技力量,其原点都可以落实到认知领域上。历史学家认为:以古希腊文化为驱动力的现代西方文明来源于古巴比伦和古埃及,其本质反映的是人与物(客观对象)之间的关系;而古印度所表征的文明中常常蕴含着人与神之间的信念;排名最后的古代中国文明是四大古文明中唯一较为完整地绵延至今的文化脉搏,其核心道理反映的是人与人、人与环境之间的沟通交流。在这些人、机(物)、环境之间系统交互的过程中,认知数据的产生、流通、处理、变异、卷曲、放大、衰减、消逝无时无刻不在进行着……

有人说人工智能是哲学问题。这句话有一定的道理,因为“我们是否能在计算机上完整地实现人类智能”,是一个哲学问题。康德认为哲学需要回答三个问题:我能知道什么?我应该做什么?我可以期待什么?分别对应着认知、道德和信仰。哲学不是要追究“什么是什么”,而是追求为什么“是”和如何“是”的问题。哲学意义上的“我”也许就是人类研究的坐标原点或出发点,“我是谁”“我从哪里来”“要到哪里去”这些问题也许就是人工智能研究的关键瓶颈。

结语

篇12

2016年是世界围棋界极不寻常的一年,3月份在“阿尔法围棋”(AlphaGo,一款围棋人工智能程序)与围棋世界冠军、职业九段选手李世石之间展开的一场人机大战中,“阿尔法”的胜出震惊全球。7月份世界职业围棋排名网站公布了最新世界排名:“阿法围棋”以3612分,超越3608分的柯洁成为新的世界第一。

2016年12月29日到2017年1月4日,一个名叫 “Master”的神秘网络围棋手横扫中、韩、日围棋界。它凭借惊人的稳定性一路高唱凯歌,获胜60场,没有败绩。最终神秘的“Master”揭开了庐山真面目,宣布自己就是“阿尔法围棋”。

2017年1月,谷歌Deep Mind公司宣布推出真正2.0版本的“阿尔法围棋”,成为第一个不借助让子,在全尺寸19×19的棋盘上击败职业围棋棋手的电脑围棋程序,其特点是摈弃了人类棋谱,只靠“深度学习”的方式成长起来挑战围棋的极限。

围棋是人类最具智慧的竞技之一,而人工智能(Artificial Intelligence,简称AI)研发是人类最具挑战性的科技探索。人机大战的经典对决将被同时载入围棋史册和科技史册。它的意义已经远远超出围棋本身,人们热衷谈论“阿尔法围棋”更多是出于对AI技术的关切。从诞生到日益成熟,AI理论和技术的应用领域在不断扩大,不知不觉间渗透到人类当代生活的各个方面。AI时代,互联网、金融、医疗、教育、物流、娱乐、传媒等行业都在加速自己智能化的进程。可以想见,未来人工智能带来的科技产品,将会是人类智慧的“容器”。 而与此同时,人类命运和机器智慧的冲突与共存,已经由人机大战开始不断升温。

“人工智能百年研究”项目

2014年秋季,美国斯坦福大学开启了“人工智能百年研究”(AI100)项目。这是一个超大型长期项目,该项目发起人――美国人工智能发展协会会长、前微软研究员埃里克・霍维茨博士表示,“我们的职责是研究人工智能在2030年前对人类社会生活方方面面所产生的影响,尤其是在北美地区”,而“研究的核心是,人类不能丧失对人工智能的控制能力”。 “人机大战”

2016年9月1日,“人工智能百年研究”项目的第一项成果《人工智能与2030年的生活》。这是一份试图定义北美城市在未来10多年间将要面临的可以模拟人类行为的计算机和机器人系统 (即人工智能)问题的报告,涉及交通、家庭/服务、健康医疗、教育、低资源社区、公共安全与防护、就业、娱乐等关注领域,目的是推动相关政策的制定。业内人士认为,工业界和学术界目前正在联手倒逼政府出台人工智能的相关政策,希望可以获得更大力度的资金和法律扶持。

《人工智能与2030年的生活》所列举的关注领域,均面临着人工智能的影响和挑战。例如开发安全可信赖的硬件的困难(交通工具和服务机器人),获得工作信赖的困难(低资源社区和公共安防),对劳动力可能被边缘化的担忧(就业和职业),以及人际交往减少带来的社会副作用(娱乐)等等。

1.交通:自动驾驶的汽车、卡车、无人机投递将改变城市里的工作、购物和休闲娱乐模式,但需要增加可靠性、安全性和用户接受度,并根据新的交通模式改进当前的相关法规和基础设施。

2.家庭/服务机器人:现在进入家庭的扫地机器人或特种机器人能够为家庭和工作场所提供清洁和安保服务,当务之急是技术方面的挑战和机器人成本过高的问题。

3.健康医疗:个人健康监测装备与手术机器具有极大的发展潜力,人工智能软件将最终对某些疾病自动进行诊断和治疗。目前的关键是获取医疗从业者的信任。

4.教育:互动辅导系统在帮助学生进行语言、数学以及其他技能的学习方面已经发挥出作用,自然语言处理的发展将为这一领域的应用带来全新的方式。当务之急是教育资源分配不均的问题,以及教、学双方直接互动的减少会带来哪些消极影响。

5.低资源社区:投资最新技术领域有助于更充分地发挥人工智能的优势,比如避免铅污染和改进食品分配等,重要的是让公众参与进来以增强相互信任。

6.公共安全与防护:利用相机、无人机和软件进行犯罪模式分析,应用人工智能技术来降低人类判断的主观偏见,与此同时在不侵犯个人自由和尊严的情况下增强安全性。目前需注意的是如何保护隐私和避免固有偏见。

7.就业和职业:随着全球经济的快速发展,传统岗位开始被新岗位取而代之,有关人类如何适应这种新变化的相关工作需要立即展开,比如如何妥善处理劳动力下岗以及人工智能对新工作岗位不适应的问题。

8.娱乐:内容创建工具、社交网络和人工智能的结合,将开创全新的媒体内容收集、组织和分发模式。但问题是新的娱乐方式如何在个人价值和社会价值之间取得平衡。

《人工智能与2030年的生活》在回顾发展历程和展望发展趋势时指出,人类正加速在人工智能领域的研究,试图建立一个能与人高效协作的智能系统。其中最重要的是机器学习的成熟,它受到了数字经济崛起的部分影响――数字经济为机器学习提供了大量数据。此外其他影响因素包括云计算资源的崛起,以及消费者对语音识别和导航支持等技术服务的需求。研究人员认为,不管是从基本方法上还是应用领域,包括大规模的机器学习、深度学习、增强学习、机器人、计算机视觉、自然语言处理、协作系统、众包和人类计算、算法游戏理论和计算的社会选择、物联网、神经形态芯片在内的研究趋势,共同促进了人工智能研究的热潮。

这份报告试图严肃地讨论这样一个问题:如何更好地引导人工智能来丰富和服务于人类生活,同时推动和激励这一领域的创新。因为人类目前并不能清晰而完美地预测未来的人工智能技术及其影响,所以一定要对相关政策进行评估。未来几年公众在交通和医疗等领域内应用人工智能的机会日渐增多,因此必须以一种能构建信任和理解的方式将其引入,确保在尊重人权和公民权利,保护隐私和安全,维护广泛而公正的利益分配等方面措施周备。 世界经济论坛说,机器人和人工智能到2020年可以取代510万个工作岗位。

研究人员指出,传统的人工智能范式已被数据驱动型范式成功取代,对于定理证明、基于逻辑的知识表征与推理这些程序的关注度在降低。作为20世纪七八十年代人工智能研究的一根支柱,规划( Planning )强烈依赖于建模假设,难以在实际应用中得到满足;视觉方面基于物理的方法和机器人技术中的传统控制与制图,正让位于通过检测手边任务的动作结果来实现闭环的数据驱动型方法;还有曾颇受欢迎的贝叶斯推理和图形模式,在数据和深度学习的显著成果前也显得相形见绌。在未来15年中,针对人类意识系统开发,按照能够互动的人类特点进行建模和设计人工智能系统成为人们的兴趣点。在考虑社会和经济维度的人工智能时,物联网型的系统变得越来越受欢迎。数据驱动型产品的数量及其市场规模将会扩大。

“为机器人安装‘死亡开关’”

2017年1月,欧洲议会法律事务委员会召开会议,呼吁制定“人类与人工智能/机器人互动的全面规则”。议公布的报告对机器人可能引发的安全风险、道德问题、对人类造成的伤害等情况进行了讨论,探讨是否需要为机器人安装“死亡开关”、研究机器人抢走人类工作的应对措施等等,要求欧盟为民用机器人制订法律框架。专家认为,这或将是首个涉及管制机器人的立法草案,将有利于人类应对机器人革命带来的社会震荡。

会议认为,人工智能和机器人发动的新工业革命可能影响到所有的社会阶层。机器人可能创造无限的繁荣,与此同时将影响人类未来的就业情况。机器人取代人类在许多行业是大势所趋。在德国,每1万个雇员中就有301个是工业机器人。报告要求欧盟委员会对各国民众的就业情况进行调查,重点关注极易被机器人取而代之的职位。如果机器人成为职位“杀手”,欧盟各成员国应考虑为国民提供基本的生活保障。埃里克・希尔根多夫是一名德国法律教授,他非常认同欧洲议会讨论的这项议题。“这不仅在政治上是可取的,从法律角度也是必要的,这样我们才能及时应对机器人革命带来的社会震荡。”他指出,“即使是银行顾问、教师和记者等要求严格的职业,未来也无法在这场科技洪流中幸免。”

会议强调,因为人工智能在几十年内可能超越人类的智力,将对人类控制机器人构成挑战。随着机器人自我意识的崛起,甚至可能威胁人类的生存。近年来,机器人“杀人”的事件时有发生:2015年6月,在德国大众汽车公司,一名工人安装机器人时反被它抓起推向金属板压死;2016年6月,美国一家汽车零件生产商的一名女员工正在修理出现故障的机器人时,它突然启动,将修理女工活活压死。

报告参照美国科幻小说作家艾萨克・阿西莫夫提出的“机器人学三大法则”,将其作为立法框架,对机器人自我意识觉醒后的行为规范做出规定。“机器人学三大法则”包括: 1.机器人不得伤害人,也不得见人受到伤害而袖手旁观。2.机器人应服从人的一切命令,但不得违反第一法则。3.机器人应保护自身的安全,但不得违反第一、第二法则。由于规则无法转化为代码,欧洲议会正在着手建立一个针对机器人和人工智能研发的机构,为设计、生产和操作机器人的人员提供技术、伦理和监管方面的专门知识等。

报告还提出:1.在设计新型机器人时,设计师应该尊重人类的基本人权,事先获得道德研究委员会的批准。2.必须为机器人注册,以便在调查事故时查找涉事的机器人。3.确保机器人安装有“死亡开关”,可以随时被关闭。4.机器人不能对使用者造成“身体或心理伤害”。如果酿成事故,机器人不能逃脱责任。机器人所负担的责任应该与其接收的实际指令及其自主程度相对应:它的学习能力和自主性越高,那么人的责任就较低;倘若它“受教育”的时间越长,教它的“老师”负的责任就越大。报告还指出,机器人的生产商或拥有者将来需要购买保险,来承担机器人可能造成的损失。

人类与机器人的关系将会引起一场涉及私隐、尊严和安全的大讨论,在欧洲议会投票赞成立法之前,各成员国政府将对此做进一步的辩论和修正。

“机器人应当纳税”

英国牛津大学近期一项调查结果显示,今后数十年间,自动化改变生产线的速度将超过20世纪。在经济合作与发展组织(OECD)成员国,57%的工作岗位有被自动化取代的风险。英国中央银行英格兰银行预测,在自动化浪潮中,危在旦夕的英国工作岗位多达1500万个。美国白宫2016年预测,机器人取代时薪低于20美元以下岗位、介于20~40美元岗位和时薪40美元以上岗位的概率分别为83%、31%和4%。

在美国微软公司创始人比尔・盖茨看来,为暂时性减缓自动化蔓延速度,很有必要向企业为雇用机器人员工而征税,税单将是阻止机器人取代人类工作岗位的杀伤性武器。如果机器人将大范围取代人类工作岗位,那它们至少应为此买单。“目前一个人类员工在工厂中创造了5万美元的价值,这个价值会被征税。人类员工需要缴纳各种税,如所得税、社会保障税以及其他税款。如果一个机器人在工厂做与某个工人同样的事情,我们也应按同等水平向它征税。”

盖茨同时认为,尽管一些工作岗位可能被机器人取代,但人们可以在那些所需技能是机器人无法复制的领域里继续工作。世界需要抓住机遇解放劳动力,让人们从事更好的工作,例如关爱老人和帮扶特需群体。在这些领域,人类具有独特的同情心和理解力。

法国社会党总统候选人伯努瓦・阿蒙也呼吁法国对机器人征税,部分税收用于补贴全民基本收入保障。越来越多的政界人士和硅谷富翁支持推出全民基本收入保障,以化解自动化引发的大范围失业。而反对机器人税的人士则持这样的观点:自动化即使在短期也可以借助提高生产率创造新的就业岗位。

“人类需要成为‘半机器人’”

美国特斯拉汽车公司首席执行官伊隆・马斯克在2017年2月13日迪拜举行的 “世界政府峰会”上表示,未来20年,驾驶人员的工作将被人工智能所颠覆,之后全球12%~15%的劳动力将因为人工智能而失业。“从技术角度讲,最迫切的影响会来自自动驾驶汽车。它到来的速度将远快于人们的预期,当然它会为人类提供极大的方便。”

篇13

通过眼睛辨别物体颜色和形状,用不同方式抓取物品并将其归类,是韩国人形机器人Mybot的拿手好戏;像蜜蜂一样扇动翅膀,只有几粒大米重、2~3厘米高的蜂性机器人,已经可以应用到现实领域;仿真美女机器人“佳佳”身着汉装,吸引了不少人与其“对话”。

这些都是不久前2016年天津夏季达沃斯论坛上,在名为“流动的创意”的展区中发生的事情。嘉宾可以直接与这些机器人们进行交互体验,并与这些机器人的创作者们提问沟通。

人工智能,是2016年天津夏季达沃斯论坛(世界经济论坛第十届新领军者年会)的关键词之一。本届论坛以“第四次工业革命―转型的力量”为主题,论坛公布的2016年度十大新兴技术中,开放的人工智能生态系统入选。

让人工智能服务人类,是人类的美好愿望。然而已有人关注到,未来人类将会被人工智能所取代的可能性。比如就在本届论坛上,世界级围棋选手李世石现身说法,对人工智能的学习能力表示折服,连连发出“再也不想跟阿尔法狗(AlphaGo)下棋”的感慨。

正如世界经济论坛主席克劳斯・施瓦布(Klaus Schwab)所说,“物理、数字与生物世界的融合,是第四次工业革命的核心内容。”人工智能已力图逼真模拟人类的思考、行动,从而影响着人类生活与工作。

从机器人到人工智能,新兴技术的商业化正在重新定义各行各业并重塑社会准则。然而生产力数据却显示,当前世界经济处于停滞状态。各经济体如何才能实现第四次工业革命带来的增长与发展潜力?对此,加拿大创新、科学和经济发展部长纳维蒂普(Navdeep Bains)给出的答案是“包容”:

“如果第四次工业革命在人们的参与度、财富分配、机会创造上不具备包容性的话,那么这将是巨大的挑战。” 李世石复盘“人机大战”

“我再也不想跟阿尔法狗(Alpha Go)下棋了。”李世石在本届论坛“人机大战:阿尔法狗的意义”的讨论会上多次感慨道。

这场讨论吸引了大量的嘉宾前往。早在会议开场前1个小时,就有人排队候场,只为一睹李世石真容。虽然他表现比较腼腆,但在整个讨论中,他有问必答,十分诚恳。一散会,李世石即被护送离场,没人要到他的签名。

2016年3月9日起,李世石与谷歌开发的计算机围棋程序“阿尔法围棋”(AlphaGo)进行“人机大战”。前三局连败后,李世石在第四局扳回一城,但第五局又输了。截至3月15日,李世石不敌人工智能“阿尔法围棋”,以总比分1:4落败。

“对1:4这个结果,我非常惊讶。”李世石说,“我一直以为,围棋的不可预测性非常强,需要直观和计算,但通过这次比赛,我才知道,原来可以通过精确计算实现胜利。”

当第一局开场时,当阿尔法狗出第一二招时,李世石略显吃惊。“你有情感上的表露,阿尔法狗并没有,他没有表情,这会影响到你吗?”面对主持人的问题,李世石坦言,“人跟机器的对弈,人是非常不利的。”

机器的绝对理性,让李世石认为是对弈中最难之处。李世石指出,人毕竟会有心理上的动摇,即便人知道正确答案,也可能会选择另一条路,还要考虑到整个布局,所以会有动摇;但阿尔法狗不会有任何动摇。“如果一个人连下三局,他的每一局(打法)是不一样的;但阿尔法狗心情没有任何变化,不会意识到这下到第几局了。”

“所以我非常惊讶,我真的再也不想跟阿尔法狗下了。”李世石说。“因为他(指阿尔法狗)毫无感情。和没有感情的人对弈,是非常困难的。”

与阿尔法狗对弈之前,李世石是骄傲的。“其实和阿尔法狗比赛前,我看了他和樊麾的五场比赛。对于深度学习这个领域,我了解不是很深入,也没有把他放在心上。我觉得阿尔法狗达不到顶级棋手的程度。”

因此,李世石认为,自己失败的原因在于对深度学习和人工智能认识不足。“我觉得不是实力的问题。当时是因为我判断失误,我对深度的学习没有足够的认识,因为判断失误所以才失败的。”

未来人类可能战胜阿尔法狗吗?对此,李世石表示,“其实阿尔法狗也有很多的问题,它在执白子的时候,我觉得胜算还是很大的,但是它在短短6个月之内,它的实力进展得非常迅速;现在又已经过去3个月了,它又有了多大的进步,这个是无法预知的,因为它在不断的发展,所以在现在的情况下人就很难战胜它了。如果阿尔法狗一直在当时和我比赛的水平的话,人是有可能战胜它的。”

李世石认为,10到15年之后,人工智能的时代会到来,围棋的根基也会动摇。但人与人的博弈是重要的,这是机器不可比拟的。 人类与人工智能

在电影《机械姬》中,智能机器人具备了自我意识,并最终杀害了人类。这一对人工智能的悲观预警,实则也是本届论坛的讨论要点之一。

人工智能是否具备自我意识?耶鲁大学生物伦理学跨学科中心学者文德尔(Wendell Wallach)指出,需要研究的是,人机大战中,在机器策略的背后,是对成千上万模型进行学习的计算能力,还是真正富有创造性的思维涌现。

篇14

各国人工智能技术飞速发展

随着进入新世纪后第三次人工智能浪潮的到来,通过“机器学习”与“深度学习”,用计算机来模拟人的思维过程和智能行为(如学习、推理、思考、规划等)得到极大发展。国际金融危机以后,欧美国家更加重视人工智能技术的研究,在人工智能基础研究、人脑研究、网络融合、3D智能打印等领域不断有所突破。

“互联网+”带动我国人工智能技术实现突破

在人工智能技术领域,我国大体上能够与世界先进国家发展同步。近年来,我国在视觉识别、语音识别等领域实现了技术突破,处于国际领先水平。我国拥有自主知识产权的文字识别、语音识别、中文信息处理、智能监控、生物特征识别、工业机器人、服务机器人、无人驾驶汽车等很多智能科技成果已进入实际应用。

我国经济发展正进入一个新常态。经济发展方式正从规模速度型的粗放式增长向质量效率型的集约式增长转变。供给侧改革要求我们在适度扩大总需求同时,去产能、去库存、去杠杆、降成本、补短板,从生产领域加强优质供给,减少无效供给。因此,在大力淘汰“僵尸企业”同时,我们要更多地依靠改革、转型、创新来培育新增长点,形成新动力。

在我国新一轮改革发展关键时刻,人工智能技术确实给我们提供了一个弯道超车机会。作为制造业大国,近年来我国低成本优势逐渐消失,制造业转型迫在眉睫。对企业而言,利用好新一代信息技术将是其在新时代成长环境中抓住机遇的关键。我们应充分利用大量企业正在转型升级的机会,强化企业在人工智能技术创新中的主体地位,充分发挥百度、阿里巴巴、腾讯等在人工智能领域已经有所建树的大企业作用,紧盯人工智能研究最前沿发展,成为引领全球人工智能发展的骨干企业。同时,培育若干中小智能企业,支持他们面向市场需求来确定创新突破口。从资金、税收、人才、知识产权、放开管制等方面入手,大力营造有利于人工智能领域的企业发展的政策环境和制度环境。鼓励企业结合市场和国家需求,将人工智能的基础和应用研究产品化、商业化,实现产业链的优化和调整。

推动技术创新应该成为一种国家的重要使命和责任。从历史上看,第一次与第二次工业革命的兴起几乎都是由个人与企业推动的,但在而后技术发展中,政府作用越来越大。人工智能是一项抢占未来竞争高地的基础性技术,研究经费耗费巨大,超出个人甚至企业承受范围,更需要国家战略层面的资金支持和参与。政府工作重点在于政策引导与资金支持,特别是在基础研究领域中,抓紧制定政策,建造一批国家级、基础性、共性技术、创新能力保障的人工智能研发基地和平台。高校与科研机构则在推动基础和应用研究上和人才培养上发挥重要作用,同时还应鼓励一部分高校开办人工智能专业研究所与学院。

最后,还要把自主创新与引进消化再创新相结合。虽然人工智能领域中的很多最前沿应用技术掌握在国外,特别是在美国高科技中小企业手中,但他们缺乏大规模低成本的制造能力与市场营销能力。我国制造业和美国中小科技企业有着天然互补性。应支持我国风险投资加大对前沿中小公司的投资,再把这些产品引进国内生产,把我国一部分制造业打造成全球人工智能产品制造链条中的关键环节。

总之,从现在开始到2040年,将是一个人工智能快速发展阶段。人工智能将改变各行各业生产和工作方式,也将催生许多新行业和新领域,最终将全面改变人类生活和世界。我国有集中力量办大事、统筹能力强的制度优势,在人工智能这一战略制高点上,应予以充分发挥。

时代呼唤“懂技术的管理者”

技术与知识产权、技术与法律法规、技术与新闻伦理之间的张力,凸显了新技术成长与旧方法滞后之间的冲突,考验着管理部门呵护技术进步的服务能力与引导社会潮流的监管智慧。

戴上一副眼镜,你就可以进入一个360度的虚拟世界,行人擦肩而过,星辰触手可及……很多人可能都体验过这样的“虚拟现实”(Virtual Reality,简称VR)。普通人可以尽情享受技术的奇思妙想,但对于监管者,时常需要“递进一层”想想,当新技术迅速为媒体所用,可能出现什么监管漏洞,又会提出什么新的管理课题?

“新技术+媒体”的组合,已经一再出现。作为一个巨大的变量,技术始终处于“不断地动荡”状态,未来必将更深刻地影响媒体和传播。在高速公路上,警察不可能骑着自行车来执法。同样,新技术不断拓展媒体的边界,媒体管理也离不开新的技术手段。从门户网站时代到WEB2.0时代,再到移动互联时代,我们已经探索出很多媒体管理的新办法,管理体制也发生了巨大变化,但互联网“未知远远大于已知”,唯有不断创新,才能回应技术带来的持续挑战。

在技术上,管理者处于“追赶”状态,是一个不争的事实。前几年,相关部门为了净化青少年上网环境,曾要求我国销售的所有个人电脑出厂时必须预装“绿坝—花季护航”绿色上网过滤软件,旋即因为无法阻断不良信息、被黑客破解改写等技术问题,而引来极大争议。类似的案例,不能仅仅是“花钱买教训”,更需要思考其后的问题:我们现在不缺技术条件、不缺物质资金,但为什么在管理上还“跟跑”得有些狼狈?