发布时间:2023-09-18 16:39:15
序言:作为思想的载体和知识的探索者,写作是一种独特的艺术,我们为您准备了不同风格的5篇人工智能的法律规制,期待它们能激发您的灵感。
【关键词】人工智能 超级计算力
一、引言
(一)问题提出
人工智能作为下一代技术发展的趋势,其方向也是众多科技界人士关心的问题。很多科学家预言,人工智能不仅仅是人类技术突破的下一个阶段,而且更是人工智能的发展潜力必将超出人类的控制,成为新一个物种,甚至可能替代人类,“统治”地球,我们抱着研究的目的,来探讨人工智能技术发展的方向与途径。
人工智能技术的发展对大多数人而言,是浑然不觉,全无概念的,但是从近年来各大科技公司的战略与产品上看,人工智能的确已经成为当下科技界争夺的战略制高点,苹果的Siri语音助手,谷歌的无人驾驶等单向的人工智能技术已经非常成熟,而大量的科技公司正在投入巨大的精力与财力进行研究,可以预见,在不久的将来,人工智能技术必将成为人类生产生活领域中广泛应用的技术之一。而对其进行发展脉络和规律的判断与估计也是十分必要的,也是顺应技术趋势,推动技术创新的必由之路。
(二)目的与意义
一方面,对于科学研究来说,繁重的科学和工程计算本来是要人脑来承担的,如今计算机不但能完成这种计算,而且能够比人脑做得更快、更正确,因此当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”,人工智能这门科学的详细目标也天然跟着时代的变化而发展。这些创造力以各种数学定理或结论的方式呈现出来,而数学定理最大的特点就是:建立在一些基本的概念和公理上,以模式化的语言方式表达出来的包含丰硕信息的逻辑结构。这种途径是数学赋予的,是普通人无法拥有但计算机可以拥有的“能力”。从此,计算机不仅精于算,还会因精于算而精于创造。我们可以将这样的学习方式称之为“连续型学习”。本质上,这种方法为人的“创造力”的模式化提供了一种相称有效的途径。
另一方面,对于人类的生产生活甚至未来来说,人工智能技术的快速发展,不仅会在更大程度上解放人的劳动时间与降低工作辛劳程度,使得人们越来越离不开机器的工作,并且每个人的生活方式发生根本性的转变,而且,更重要的是,在未来,人类是否会与机器进行深度融合,发展处全新的生命构造体,以此来迭代和进化,实现人类和机器人的和谐共存,还是人工智能会自动发展出自我意识,而在将来的某一个时点,机器人们将会对他们的缔造者――人类举起屠刀,实现自己称霸的野心,这也不得而知,因此,对人工智能的路径探讨是十分必要和有重大意义的。
二、人工智能发展趋势
(一)人工智能的准确定位
人工智能(Artificial Intelligence),它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
(二)人工智能的发展趋势研究
1、自我存续。这是一个十分显眼的要求,人工智能如果作为一个新物种存在,其必须拥有自我生存的能力,即离开人类,人工智能技术必将仍然存在。而且人工智能将与其他物种和环境形成新型交流互动方式。以极端的情况来说,如果人类在将来的某一天消失了,而人工智能必须拥有维持自身生存和发展机制和技术,如果是电量不足,核心机器人将会指挥挖掘型机器再次挖煤,或核能机器人运用核能来发电,以维持自身的正常运转,而这一切的工作都是在人工智能的机器内部解决,而并不需要人类的参与,这就是人工智能的自我生存功能。
2、自我迭代更新。这是在自我存续的基础之上发展而来的。一个机器,一代机器的存在可能并不是问题,而要想机器向人类一样代代繁衍不绝,则对人工智能来说,绝对是一个巨大的障碍。因此,在机器自身的自我繁殖更新迭代,也是必须要进行的过程,这就需要强人工智能的高度运用,来对整个机器人生态进行实时评估,不断地提出新的发展要求,而且立即组织机器人中的“科学家”对其进行研究与探讨,实验与创造,或者是融入生物技术而与之进行基因式的合作,这些都是不确定的,唯一能确定的是,离开人类的独立人工智能必须要有发展创造出更新更快更强的人工智能的能力。
3、自我认同。人工智能的自我认同分两个层面,一方面是对内进行认同,另一方面,是对外进行认同。如果假定人工智能是人类的发展方向,其必须会对人类关心的终极问题等产生同样的巨大疑惑,比如我是谁?我从哪里来?要到哪里去?宇宙的界限是什么?而且以人工智能的水平来看,它一定不会停留在思考的层面上,而是会进行各种不同的实验与探索,已验证自己的猜想。另一方面,人工智能作为一个以理性而存在的物种,其合作是建立在种种规章制度之上,而一旦有机器发现制度的漏洞,就会有进行套利和损人利己的动机,而阻止这种情况的发生,只能是建立在机器人的情感共同体的基础之上,即是机器人产生同样的情感,而形成有效率的合作与分工,而不会因为短期利益牺牲长远利益。
三、结论
由上述探讨可知,人工智能的发展道路还是非常漫长而艰辛的。对于其是否会取代人类,这个问题要依赖于将来的技术发展和人类的生命形态的演变而定,而我们对人工智能进行的物种化探讨是非常有必要的,也是对人工智能技术的发展和对其风险的防控具有借鉴意义的一个环节,是我们进行科学技术开发的留有的一个客观冷静的分析角度。
参考文献:
当我们谈论人工智能(Artificial Intelligence,AI)时,很大程度上受到源自20世纪想象的影响,例如,直接把人工智能和机器人联系起来,甚至是人形机器人。这可能也会影响法律人对人工智能的想象,包括是否承认人工智能作为具有自我意识的法律主体地位(或至少是人类行为的人),从而保护其特定权利(言论自由、著作权)、划定责任(缔约、侵权),甚至强调可能的毁灭性风险。这种想象远非受到科幻作品影响那样简单,深层次中还反映出人工智能在技术和应用上不同的发展路径:早期人工智能研究更集中于对人脑的仿真模拟,探究意识、理性等更为宏大的哲学问题,但应用性较少;当下的人工智能走出了实验室,借助互联网服务直接影响到普通人的生活,在技术上并不执着于创造一个完美的智能体,而是依靠算法(如机器学习和神经网络)不断优化,对海量数据自动挖掘与预测,通过无所不在的传感器实时更新数据,动态掌控着人类社会各个方面的运转,并把从某个特定领域升级为通用人工智能作槟勘辍4诱飧鲆庖迳纤担人工智能并不神秘,它出现在日常生活中,不仅是工业社会生产自动化的延续,也是互联网商业化的必然结果和新阶段。时至今日,欧美国家纷纷出台政策,推动人工智能发展,力求提升经济效率和竞争力。 互联网公司正逐渐主导实体经济和金融生产
如果我们摆脱简单的拟人思维,把人工智能看作互联网智能演进的新阶段,为理解其法律规则,就有必要理解互联网法律在过去20年中形成的路径和推动力,从而探讨人工智能是否有任何特殊性以至于需要新的规则。本文将从网络法的两个视角――实证性和生产性――切入,将它们延伸至人工智能语境下分别讨论。“实证性”视角是我们观察和应用任何规则的惯常思维方式,例如人工智能行为的具体规则如何确立、如何规制等,本文将讨论支撑人工智能的两个构成性要素――算法与数据――可能带来的法律问题,以及法律人处理人工智能的两种路径;“生产性”视角则深入规则背后,探索规则形成的政治经济因素,特别是经济生产方式的内在要求。人工智能本质上是一套复杂的代码设计,既是影响社会行为的强力规范,也是产生新价值的生产机制;它驱动整个社会朝向更智能的方向变化,从而要求法律做出相应调整,尤其是确认新型经济利益的合法性。
限于篇幅,本文姑且将人工智能看成法律上的客体,暂不讨论赛博格(cyborg)之类的人体转向机械体或通过基因技术改变身体的问题(仍是法律上的人),也不讨论人工智能作为一种人造物的自我意识问题(一个难以达成共识的哲学问题)。
理解网络法的变迁
网络法在中国的变迁大致遵循两类逻辑:外生性的政治/监管逻辑和内生性的商业逻辑。政治/监管逻辑体现为对“实证性规则”的追求,这些规则集中在国家(包括法院和监管机构)如何对互联网的内容和行为进行规制,包括对网络和信息安全的追寻。这集中反映了国家权力如何试图介入新技术带来的问题与挑战。这一视角最早由美国法学界引出,特别是Lawrence Lessig的代码理论将代码(架构)和法律并列。由此,所谓的网络法不仅要约束社会主体在网络空间中的行为,也要对架构的变化本身做出回应。
首先,就规制主体行为而言,出现了是否按照传统线下行为规则的思路约束线上行为的讨论。这一讨论的核心是,互联网问题是否具有任何特殊性,需要某些新规来解决。我们已经看到,中国的互联网行为监管在很大程度上延续了传统规则和管理方式,采取渐进的方式,这不仅成本较小,也给予监管者一定的学习和探索空间。其次,就架构变化本身而言,国家在宏观上主张网络空间中仍然需要,不能成为法外之地,在微观上相应出现了国家与平台权力/责任二分的讨论。例如,政府权力何时需要介入平台治理,加强平台的行政管理责任或安全保障责任,还是由后者根据自身情况自我规制,实现治理目标。政治/监管逻辑要么遵循管理者的路径依赖效应,要么坚持既有社会稳定、意识形态安全价值。问题在于,监管者在多大程度上能够认识到代码及其商业模式的特殊性,从而使监管行为和行业特性相互协调融合。
另一种看待规则产生的方式遵循商业逻辑。这种生产性视角关注微观权力运作,综合将代码、法律与社会规范放在一起,不单纯从社会学意义上观察社会主体行为如何受到影响,而是在政治经济学意义上将网络空间的生成和扩散看成是一个由商业力量推动主导的生产性过程,关注价值由谁产生、如何分配,由此推动对新规则的内生需求。按照这一视角,无论是法律还是架构,在具有实证性规制功能的同时,也是一种“生产性规则”。互联网的生产模式决定了其对社会范围内生产资料的创造性生产和再利用,需要法律确认其生产方式的合法性,重塑关键法律制度,并解决和传统生产模式的利益冲突。这一视角无疑帮助厘清新经济主张的例外特性,不仅展示出架构和相应的法律改变,更指明了背后的政治经济原因,是更好地理解实证性规则的基础。
两类不同的逻辑在过去20年中交替出现,相互制约,共同塑造了中国网络法体系,也推动了中国互联网的整体发展。总体而言,鉴于国家有意促进新经济,需要推动传统的属地化、分口治理,事后运动治理模式发生转变,认清互联网商业模式和价值产生的根源,有利探索适应新经济性质的管理体制。从这个意义上说,信息资本主义不断要求对法律内核进行改造,取代其中的传统经济要素,打破限制生产要素自由流通的各类规则。
人工智能法律的实证性视角
如前所述,人工智能的本质在于算法和数据处理,物理形体不必然是人工智能的构成要素,因为即使是人形机器人,也不过是一个算法主导的硬件系统,它实时收集信息,并按照算法的要求做出决定,继而行动。更重要的是,具有物理形体的人工智能可以推动群体智能发展,通过分布式终端收集更多数据加以处理,并不断传输至云端“大脑”,提升整体网络的智能水平。 人工智能巳深度介入医疗领域
根据算法的复杂性和学习/运算能力对强人工智能和弱人工智能进行区分,这在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。而人工智能从单一的自动化服务向多元通用服务转变的过程可能是一个相当长的光谱,法律需要针对其本质特征进行约束,并探索一套应对未来的方案。当我们说社会变得越来越智能的时候,事实上指由于数据搜集、储存和处理的能力不断增强,所有软件/算法都可能朝向自动收集数据,做出决定或判断的趋势,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。这种后果未必是毁灭性的风险,甚至只是在某领域的制度设计问题,但人工智能恰好将这类社会问题具象化,掩藏在外表华丽、高效、更多是私人控制的“黑箱”中,就会引发一系列问题。
如果放在一个更大范围内观察,在历史上,人类社会随着复杂性的增加,不可避免地产生以组织和技术形态出现的各类“黑箱”,它们的决定影响着社会发展和大众福利,但仍然保持着某种秘密性。这一隐喻未必是阴谋论,其核心问题在于信息不对称。为平衡相关当事人和社会大众的知情权、避免恐慌、保持某种预测能力,人们不断设计出某种程度的信息公开和透明化机制,例如政治辩论的公开化,法院诉讼程序透明化甚至公开庭审,上市公司强制信息披露等等。而人工智能不过是信息技术时代的新型黑箱,带来更加严重的系统化影响。互联网在兴起过程中,通过降低信息成本,推动了开放政府、庭审直播,使信息公开透明更加便利,将生产性资源不断解放出来,在更大社会范围内重新配置,产生新价值。然而,这一过程在消除一个又一个传统黑箱的同时,产生了更为复杂的新黑箱,进而主导整个社会的生产过程。生产资料之间的信息变得越来越对称,甚至可以实时互通信息,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者无法理解的秘密状态,这回到了法律如何处理与代码的关系问题。
一个类似的比较是人类自身:人脑经过上百万年的进化,演变成十分复杂精致的系统。尽管当代神经科学不断改变我们对人脑的认知,甚至每个人的大脑都不完全一样,但就法律而言意义不大,这只能在边际上改变个案判决。即使无从了解人脑的运转机制,或者依据某种更加先进的科学知识解释社会主体行动的具体理由,人类还是有能力形成社会规范,并演进成更加理性化的规则。这套规则只需要假定一般社会主体是(受限)理性的,由少数概念界定不同情形的心理状态(故意、过失),并集中对人的外在行为进行约束,确定权利与义务,就足以以简单规则应对(而非认识)这一纷繁复杂的世界。类似地,在处理算法的负外部性时,也可以有两种不同的路径:(1)关注算法的外部行为与后果,(2)关注算法内部的设计规则。
大部分现有规则关注算法导致的(未意料)结果,例如内容分发算法未经审查造成非法或侵权内容传播,这一般由信息传播者(即内容服务商)承担责任,算法本身并无法律地位,在造成不利后果的过程中只是一个工具。这类责任假定内容服务商应当知道非法内容的存在,并有能力通过算法设计或人力(比如人工审查)加以阻止。在诸多侵权场合,内容服务商可以通过“避风港”规则免责,只要无法证明它实际知晓状态。更复杂的是,如果软件开发者声称自己无法控制信息的生产和传播,却造成一定社会危害的情形。无论是在快播案还是BT案中,软件开发者都无法因这一原因而逃脱责任,法院的理由仍然是,开发者有能力知晓非法内容的输出(如果不是故意的话,例如快播向推广该播放器)。类似地,如果一个具有物理形体的人工智能由于处理信息不当造成了外在损害,按照这一逻辑仍应由算法开发者负责。
而且,还有必要将算法产生的错误和算法缺陷本身区分开。长期以来,软件行业一直通过拆封合同(shrink-wrap)解决缺陷软件造成的短时崩溃或重启问题,这种格式条款旨在确认这样一种事实:没有任何软件是百分之百完美的,只要在用户拆封使用该软件时运行正常即可,服务商并不为软件崩溃或死机造成的消费者损失负责,因为前者无法预料到缺陷带来的风险。这就是为什么消费者需要接受软件生产商不停的更新和补丁,软件/应用不受产品责任的约束,被视为一种可以不断升级改进的服务,这在免费软件时代更是如此。按照这一思路,似乎有理由认为,无人驾驶汽车因算法计算错误导致车祸(何况造成事故的概率远远小于人类司机的错误)是这类软件的正常的缺陷,消费者应当容忍这类错误。但无论是监管者还是潜在的受害人都无法接受这种比拟。声称有潜在缺陷的交通工具(也包括医疗设备和其他与生命财产直接相关的算法)一旦投入使用就需要为此造成的后果负责。无论如何,这类思路仍然是通过后果施加事后责任,监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故可以避免,黑箱提供者就应当承担责任。在这种情况下,保险(甚至是强制险)就成为确保这类发生概率小但潜在损失巨大的不二选择,航空、医疗保险市场十分发达,可以预见将会延伸至更多由人工智能驱动的服务行业。 现实与虚拟的界限不断模糊化
如果说事后救济还无法确保安全,事前干预算法设计则是另一种选择,同时带来的问题也更复杂。早在20世纪,阿西莫夫就试图为机器人立法,尽管他从未讨论技术上的可行性。安全可能是人工智能服务的首要问题之一:一个中心化的入侵可能会导致所有终端都变得极度不安全。行业监管者在不同行业为特定服务中的人工智能设定安全标准(如医疗器械、交通工具、自动化武器),实行安全保护等级制度,甚至要求被认定为重要设施的源代码(如windows系统)供监管者备案,或在设计自动化交易程序时控制报单频率的阈值等。又例如,在魏则西事件后,联合调查组在整改意见中要求落实以信誉度为主要权重的排名算法,对商业推广信息逐条加注醒目标识,予以风险提示。如果说这些监管手段针对的是作为商业秘密的私人算法,诸如Open人工智能这样的倡议则意在延续开源软件运动路径,确保软件漏洞能够得到更大范围内的监督和修补。至少在中国,信息披露机制尚未成为算法监管的重要手段,无论是强制性披露还是第三方披露。
(作者单位:上海财经大学法学院)
注释:
[1]当下的大众媒体、文化产品和社会公共认知正努力将未来的人工智能塑造成具有独立意识的逐渐演化的主体,这集中体现在诸如《终结者》《我,机器人》《西部世界》《2001银河漫游》这类科幻影视作品中。尽管人们也有理由进一步想象,一旦人工智能具有了自我意识,就不再可能忠实地为人类服务,而更可能对人类生存构成威胁。其路径和思维方式仍是20世纪的,和21世纪依托大数据机器学习迥然不同。事实上,按照日本学者森政弘提出的“恐怖谷理论”,人工智能不太可能在短时间内人形普及化,因为这会在消费者心理上引发不安甚至恐惧。像Siri和Cornata这样的语音助手、像Tay和小冰这样的聊天机器人则不会有这种负面效果,因为用户知道自己在和一个尚未通过图灵测试的算法对话,他们甚至乐于教Tay在推特上辱骂用户、发表种族主义和煽动性的政治言论。另一个可能影响中文世界读者想象的因素是,把robot翻译成“机器人”先验地赋予了这类客体某种拟人化主体地位,而人形机器人(android)却没有引起更多的关注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一个更加有用的综合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究将具有物理形体的机器人作为法律的对象,特别区分了信息性和物理性效果,见Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一个不同观点,见Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把机器人视为人在法律上也有相当的历史,见Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吴军:《智能时代》,中信出版社2016年版。
[4]例如阿西莫夫的机器人系列小说中,无一例外地设定机器人拥有一个“正子脑”(positronic br人工智能 n),但却没有给出任何解释。见阿西莫夫:《机器人短篇全集》,江苏文艺出版社2014年版。
[5]这被称为终极算法(master algorithm),见佩德罗・多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯・卡尔:《玻璃笼子:自动化时代和我们的未来》,中信出版社2015年版。在互联网发展的每一个阶段都有某种意识形态化的术语或热词吸引投资,例如宽带、大数据、分享经济、VR(虚拟现实)等,它们不过是互联网形态的各类变种。例如,一个关于分享经济和之前互联网经济的关联,参见胡凌:《分享经济的法律规制》,载《文化纵横》2015年第4期。
[7]这种思维方式可追溯到霍布斯以来的法律实证主义。
[8]胡凌:《代码、著作权保护与公共资源池》,载《腾云》2016年12月刊。
[9]关于两类逻辑的具体表现,集中参见胡凌:《探寻网络法的政治经济起源》,上海财经大学出版社2016年版。
[10]这在众多(特别是国外的)中国互联网观察者身上十分常见,人们的注意力全都转向中国政府如何严格管理和控制互联网。在政治学研究中自然而然地并入“国家与市民社会”传统框架,并吸纳了关于在线抗争、集体行动的传播学与社会学研究。
[11]劳伦斯・莱斯格:《代码2.0》,清华大学出版社2008年版。
[12]一个概述,见胡凌:《马的法律与网络法》,载张平主编:《网络法律评论》2010年第11卷。
[13]胡凌:《非法兴起:理解中国互联网演进的一个框架》,d《文化纵横》2016年第5期。这体现在版权、隐私、财产、不正当竞争、垄断、劳动法等一系列制度中。这种对法律制度的改变不单纯是在既有工业生产背景下微型创新带来的变化,而是社会生产的重塑。
[14]比如说,平台责任议题的出现,和互联网平台更多转向由第三方提供服务的信息中介模式直接相关。
[15]这一区分和观察中国式资本主义兴起的框架十分类似,政治经济学家们争论的焦点就在于如何解释中国改革开放三十年的成功经验,究竟是政府主导还是市场主导,但实质上是一个混合制经济。
[16]由于科斯所说的企业信息成本和管理成本降低,调动生产要素的边际成本趋近于零,企业组织形态本身将成为竞争的高成本。
[17]尼克・波斯特洛姆:《超级智能:路线图、危险性与应对策略》,中信出版社2015年版。
[18]古代的政治过程、现代的企业决策都是黑箱,对外人而言如果不是神秘,也是除魅之后的国家/商业秘密。卡夫卡的小说《审判》就精确描述了作为黑箱的诉讼过程,同一时代的韦伯也描述了理性化的国家机器应当像自动售货机一样。
[19]Frank Pasquale:《黑箱社:掌控信息和金钱的数据法则》,中信出版社2015年版。
[20]帕伯斯:《差错:软件错误的致命影响》,人民邮电出版社2012年版。
[21]长久以来民用航空器已经由软件深度介入驾驶过程,以至于人类驾驶员无法在短时间内预热,形成另一种风险。
[22]阿西莫夫提出的“机器人三定律”(后来扩展至四点)虽然十分基础,但仍然很难在具体情况下起作用,特别是当代伦理学上著名的“线车难题”之类的伦理困境。考虑到这些定律是为模拟人脑状态下设计的,就更可疑;因为人脑并不总是按某些理性伦理原则行事的,在某些关键场合强烈依靠某些默认设置――直觉。
[23]由监管机构强制披露并审查事实做不到,只能依靠像苹果这样的平台公司和软件分发平台帮助对成千上万个软件进行至少是安全审查。在台式机时代,这一平台责任几乎不可能,自然状态下的windows只能导致争夺私人控制权的3Q大战。但像乌云网这样的第三方白帽黑客也被禁止探测和公开互联网公司的漏洞。
[24]同注11。
[25]在笔者看来,法院应当将注意力放在知情同意的合同条款本身的适当性上,而不是一味接受黑箱的逻辑,因为后者确实无懈可击。如果格式合同能准确反映代码的设计,对其条款的审查是更好的选择。百度引发的被遗忘权第一案反映的也是这个问题。
[26]一个补救方法还是尽可能地披露算法信息,允许用户理性地生产/隐瞒个人信息,见戴昕:《自愿披露隐私的规制》,载苏力主编:《法律和社会科学》第15卷第1辑,法律出版社2016年版。
[27]法律的人工智能化是本文另一个没有讨论的问题,与此相关的是大规模监控、智能警务、犯罪预测等问题。
关键词:人工智能;创作物;著作权
伴随着互联网+时代的到来,人工智能技术发展也在日趋成熟。2016年3月,引发社会广泛关注的人机大战事件,人工智能Alpha Go与世界围棋冠军李世石进行人机大战并以4-1战胜李世石,更展现了其的无限发展潜能。但带来的问题是,人工智能创作物能否成为作品享有著作权,从而受到《著作权法》的保护?
一、人工智能的界定及传统认识
(一)人工智能的定义
人工智能,英文名称为Artificial Intelligence,缩写AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学①。人工智能源于计算机科学,现已涉及到心理学、哲学和语言学等学科。
(二)对人工智能的传统认识
按照我国传统意义上的解释,人工智能的创作物是不可以构成《著作权法》上的作品的,从而不能得到著作权法的相关保护。作品是指文学、艺术和科学领域内具有独创性并能以某种有形形式复制的智力成果。②《著作权法》和《实施条例》都要求创作物是具有独创性的智力成果。而我国对于人工智能创造物传统的观点认为,人工智能的创作物不具有独创性,它只是将计算机内存储的内容进行汇编整理,没有任何的创新内容。其次,著作权对于作者的人格属性也有要求,而人工智能是不能算作法律意义上的“人”,所以人工智能的创作物为非智力成果。
二、国外人工智能著作权的现状研究
2016年4月,日本知识产权本部宣布在知识产权计划中纳入“人工智能”的相关内容。人工智能技术处于世界前沿的日本,从其立法行为我们可以看出,他们正在通过法律形式,将人工智能的创作物以作品的形式逐渐定下来。旨在人工智能创作物产生争议时能够有法可依,同时使得人工智能的既得利益者相关利益能够得到保护。
此外,日本再其2016年的《知识财产推进计划》中,明确表示“具有一定市场价值的人工智能创作物亦有可能有必要给予一定的知识产权保护③。”目前,世界上大部分国家还未对人工智能及其创作物的著作权的相关问题进行详细地探究。但以英国、新西兰为代表的部分英美法系国家已经认识到自己国家对于人工智能创作物的著作权法律规制不明确的问题,并试图从政策和法律上认可人工智能的创作物,这些国家将人工智能的操作者作为人工智能创作物的作者并对其进行保护;而澳大利亚虽然在相关的法律中没有人工智能创作物的具体规定,但在政策上,该国已经认可了部分人工智能创作物为作品并享有相应的著作权。
三、人工智能创作物的不同角度分析
其实,仅从创作物的表现形式上是难以对人工智能创作物和人类作品进行区别的,对音乐、美术等创新性要求不高的作品则更是如此。因此,笔者试图从利益平衡理论和市场激励角度两个方面对是否应认可人工智能创作物的著作权这一问题进行分析。
(一)利益平衡角度分析
著作权法是知识产权法的重要组成部分,知识产权的核心原则就是利益平衡原则。著作权法是对作品产生的利益进行分配的法律,调整着传播者、著作权人与社会公众之间的,原作者与演绎作者之间的利益关系。
如果不给予人工智能创作物以著作权的保护,则可能导致不受著作权法保护的人工智能创作物大量涌入市场,而这些创作物和一般的人类作品并没有实际的区别。一旦大量投入市场这一公共领域当中,由于人工智能作品并不受到著作权法的保护,用户就不需要支付任何费用而对“人工智能作品”进行使用,那这些创作物的价值将无限趋向于零,除非一些高度原创性的作品或依赖作者声誉的作品,这无疑是对人工智能及其创作者利益的一种严重侵害,而经过精密设计的利益分配体系将会失去应有的平衡,这明显是有违利益平衡原则的。
(二)从市场激励角度分析
从市场激励机制的角度来说,如果对人工智能创作授予著作权保护,这就意味着市场中受到著作权保护的人工智能作品的供应量将会大幅度增加。而考虑到人工智能的低成本和高效率的特点,在市场总需求保持不变的前提下,人类作品的定价能力和竞争能力在市场上将被大大的削弱,从而使人类作者进行创作的经济性动力逐渐下降。人工智能创作物的产生实际上是从作品的供给端冲击了著作权制度原有的架构,也就是说,原始投入到市场中的作品数量将由于人工智能技术的发展而变得庞大。
如果不赋予人工智能作品著作权,那么人类作品市场吸引力和流动性就不会丧失,以人类作品形成的发行、复制和传播为经济链的著作权市场将会依旧繁荣。但是,人类作品竞争力却得不到应有的提升,市场对于整个作品行业的创新激励机制明显不足,这实际上并不利于作品行业的进步。
四、立法保护的建议
如果立法对人工智能创作物进行保护,那人工智能作品的著作权归属问题、著作权保护期限以及权利内容等也有待进一步探讨。从目前的实践来看,人工智能作品的著作权多被授予该人工智能的操作者,笔者在此不做具体分析。
但应纳入立法者考虑范围的是,如何保持人类创作的作品与人工智能的创作物在市场中保持既竞争又共存的局面?所以,笔者认为《著作权法》中有关作品创新性的标准需要提高,界以达到人工智能作品与人类作品的利益平衡。此外,《反不正当竞争法》中也应增加人工智能的相应部分,以规制市场中存在的恶意竞争等行为。
五、结束语
笔者认为,我们不能简单地从创作物的独创性和人身属性这两个方面来判断人工智能创作物是否应该获得著作权的保护。人工智能的创作物作为一种新形式的“作品”被接受,其相关市场经济效应和是否有利于著作权作品行业的可持续发展也应被纳入考虑范围。
基于利益平衡原则和市场分析,笔者认为,认同人工智能创作物为作品,并通过《著作权法》等法律对其加以合理的保护对于市场经济的发展利大于弊,有利于促进我国人工智能技术的发展和法制建设的完善。
注释:
① http:///wiki/人工智能.2016年10月18日访问.
② 引自2013修订的《中华人民共和国著作权法实施条例》第二条.
③ 曹源.人工智能创作物获得版权保护的合理性[J].科技与法律,2016年第三期.
参考文献:
[1] 曹源.人工智能创作物获得版权保护的合理性[J].科技与法律,2016年第3期.
[2] 冯晓青.著作权法的利益平衡理论研究[J].湖南大学学报:社会科学版,2008年.
2017年7月,国务院印发《新一代人工智能发展规划》,不仅对人工智能的发展做出了战略性部署,还确立了“三步走”的政策目标,力争到2030年将我国建设成为世界主要的人工智能创新中心。[1]值得注意的是,此次规划不仅仅只是技术或产业发展规划,还同时包括了社会建设、制度重构、全球治理等方方面面的内容。之所以如此,是由于人工智能技术本身具有通用性和基础性。换句话说,为助推人工智能时代的崛起,我们面对的任务不是实现某一个专业领域或产业领域内的颠覆性技术突破,而是大力推动源于技术发展而引发的综合性变革。
也正因为如此,人工智能发展进程中所面临的挑战才不仅仅局限于技术或产业领域,而更多体现在经济、社会、政治领域的公共政策选择上。首先,普遍建立在科层制基础上的公共事务治理结构,是否能够适应技术发展和应用过程中所大规模激发的不确定性和不可预知性?再者,长久以来围绕人类行为的规制制度,是否同样能够适应以数据、算法为主体的应用环境?最后,如何构建新的治理体系和治理工具来应对伴随人工智能发展而兴起的新的经济、社会、政治问题?
应对上述挑战并不完全取决于技术发展或商业创新本身,而更多依赖于我们的公共政策选择。本文试图在分析人工智能发展逻辑及其所引发的风险挑战的基础上,对人工智能时代的公共政策选择做出分析,并讨论未来改革的可能路径,这也就构成了人工智能治理的三个基本问题。具体而言,人工智能本身成为治理对象,其发展与应用构成了治理挑战,而在此基础上如何做出公共政策选择便是未来治理变革的方向。
全文共分为四个部分:第一部分将探讨人工智能的概念及特征,并进而对其发展逻辑进行阐述。作为一项颠覆性技术创新,其本身的技术门槛对决策者而言构成了挑战,梳理并捋清人工智能的本质内涵因而成为制定相关公共政策的前提;第二部分将着重分析人工智能时代崛起所带来的治理挑战,主要包括三个方面,即传统科层治理结构应对人工智能新的生产模式的滞后性、建基于行为因果关系之上的传统治理逻辑应对人工智能新主体的不适用性,以及人工智能发展所引发的新议题的治理空白;面对上述挑战,各国都出台了相关政策,本文第三部分对此进行了综述性对比分析,并指出了其进步意义所在。需要指出的是,尽管各国的政策目标都试图追求人工智能发展与监管的二维平衡,但由于缺乏对人工智能内涵及其发展逻辑的完整认识,当前的公共政策选择有失综合性;本文第四部分将提出新的治理思路以及公共政策选择的其他可能路径,以推动围绕人工智能治理的相关公共政策议题的深入讨论。
一、人工智能的概念及技术发展逻辑:算法与数据
伴随着人工智能技术的快速发展,尤其是其近年来在棋类对弈、自动驾驶、人脸识别等领域的广泛应用,围绕人工智能所可能引发的社会变革产生了激烈争论。在一方面,以霍金[2]、马斯克[3]、比尔-盖茨[4]、赫拉利[5]为代表的诸多人士呼吁加强监管,警惕“人工智能成为人类文明史的终结”;在另一方面,包括奥巴马[6]在内的政治家、学者又认为应该放松监管,充分释放人工智能的技术潜力以造福社会。未来发展的不确定性固然是引发当前争论的重要原因之一,但围绕“人工智能”概念内涵理解的不同,以及对其发展逻辑认识的不清晰,可能也同样严重地加剧了人们的分歧。正因为此,廓清人工智能的概念内涵和发展逻辑不仅是回应争论的需要,也是进一步提出公共政策建议的前提。
就相关研究领域而言,人们对于“人工智能”这一概念的定义并未形成普遍共识。计算机领域的先驱阿兰-图灵曾在《计算机器与智能》一文中提出,重要的不是机器模仿人类思维过程的能力,而是机器重复人类思维外在表现行为的能力。[7]正是由此理解出发,著名的“图灵测试”方案被提出。但如同斯坦福大学计算机系教授约翰·麦卡锡所指出的,“图灵测试”仅仅只是“人工智能”概念的一部分,不模仿人类但同时也能完成相关行为的机器同样应被视为“智能”的。[8]事实上,约翰·麦卡锡正是现代人工智能概念的提出者。在他看来,“智能”关乎完成某种目标的行为“机制”,而机器既可以通过模仿人来实现行为机制,也可以自由地使用任何办法来创造行为机制。[9]由此,我们便得到了人工智能领域另一个非常重要的概念——“机器学习”。
人工智能研究的目标是使机器达到人类级别的智能能力,而其中最重要的便是学习能力。[10]因此,尽管“机器学习”是“人工智能”的子域,但很多时候我们都将这两个概念等同起来。[11]就实现过程而言,机器学习是指利用某些算法指导计算机利用已知数据得出适当模型,并利用此模型对新的情境给出判断,从而完成行为机制的过程。此处需要强调一下机器学习算法与传统算法的差异。算法本质上就是一系列指令,告诉计算机该做什么。对于传统算法而言,其往往事无巨细地规定好了机器在既定条件下的既定动作;机器学习算法却是通过对已有数据的“学习”,使机器能够在与历史数据不同的新情境下做出判断。以机器人行走的实现为例,传统算法下,程序员要仔细规定好机器人在既定环境下每一个动作的实现流程;而机器学习算法下,程序员要做的则是使计算机分析并模拟人类的行走动作,以使其即使在完全陌生的环境中也能实现行走。
由此,我们可以对“人工智能”设定一个“工作定义”以方便进一步的讨论:人工智能是建立在现代算法基础上,以历史数据为支撑,而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。这一概念尽管可能仍不完善,但它突出了人工智能技术发展和应用的两大基石——算法与数据,有助于讨论人工智能的治理问题。
首先,算法即是规则,它不仅确立了机器所试图实现的目标,同时也指出了实现目标的路径与方法。就人工智能当前的技术发展史而言,算法主要可被划分为五个类别:符号学派、联接学派、进化学派、类推学派和贝叶斯学派。[12]每个学派都遵循不同的逻辑、以不同的理念实现了人工智能(也即“机器学习”)的过程。举例而言,“符号学派”将所有的信息处理简化为对符号的操纵,由此学习过程被简化(抽象)为基于数据和假设的规则归纳过程。在数据(即历史事实)和已有知识(即预先设定的条件)的基础上,符号学派通过“提出假设-数据验证-进一步提出新假设-归纳新规则”的过程来训练机器的学习能力,并由此实现在新环境下的决策判断。
从对“符号学派”的描述中可以发现,机器学习模型成功的关键不仅是算法,还有数据。数据的缺失和预设条件的不合理将直接影响机器学习的输出(就符号学派而言,即决策规则的归纳)。最明显体现这一问题的例子便是罗素的“归纳主义者火鸡”问题:火鸡在观察10天(数据集不完整)之后得出结论(代表预设条件不合理,超过10个确认数据即接受规则),主人会在每天早上9点给它喂食;但接下来是平安夜的早餐,主人没有喂它而是宰了它。
所有算法类型尽管理念不同,但模型成功的关键都聚焦于“算法”和“数据”。事实上,如果跳出具体学派的思维束缚,每种机器学习算法都可被概括为“表示方法、评估、优化”这三个部分。[13]尽管机器可以不断的自我优化以提升学习能力,且原则上可以学习任何东西,但评估的方法和原则(算法)以及用以评估的数据(数据)都是人为决定的——而这也正是人工智能治理的关键所在。算法与数据不仅是人工智能发展逻辑的基石,其同样是治理的对象和关键。
总而言之,围绕“人工智能是否会取代人类”的争论事实上并无太大意义,更重要的反而是在廓清人工智能的内涵并理解其发展逻辑之后,回答“治理什么”和“如何治理”的问题。就此而言,明确治理对象为算法和数据无疑是重要的一步。但接下来的重要问题仍然在于,人工智能时代的崛起所带来的治理挑战究竟是什么?当前的制度设计是否能够对其做出有效应对?如果答案是否定的,我们又该如何重构治理体系以迎接人工智能时代的崛起?本文余下部分将对此做进一步的阐述。
二、人工智能时代崛起的治理挑战
不同于其他颠覆性技术,人工智能的发展并不局限于某一特定产业,而是能够支撑所有产业变革的通用型技术。也正因为此,其具有广泛的社会溢出效应,在政治、经济、社会等各个领域都会带来深刻变革,并将同时引发治理方面的挑战。具体而言,挑战主要体现在以下三个方面。
首先,治理结构的僵化性,即传统的科层制治理结构可能难以应对人工智能快速发展而形成的开放性和不确定性。之所以需要对人工智能加以监管,原因在于其可能成为公共危险的源头,例如当自动驾驶技术普及之后,一旦出现问题,便可能导致大规模的连续性伤害。但不同机、大型水坝、原子核科技等二十世纪的公共危险源,人工智能的发展具有极强的开放性,任何一个程序员或公司都可以毫无门槛的进行人工智能程序的开发与应用。这一方面是由于互联网时代的到来,使得基于代码的生产门槛被大大降低[14];另一方面,这也是人工智能本身发展规律的需要。正如前文所提到,唯有大规模的数据输入才可能得到较好的机器学习结果,因此将人工智能的平台(也即算法)以开源形式公开出来,以使更多的人在不同场景之下加以利用并由此吸收更多、更完备的数据以完善算法本身,就成为了大多数人工智能公司的必然选择。与此同时,人工智能生产模式的开放性也必然带来发展的不确定性,在缺乏有效约束或引导的情况下,人工智能的发展很可能走向歧途。面对这一新形势,传统的、基于科层制的治理结构显然难以做出有效应对。一方面,政府试图全范围覆盖的事前监管已经成为不可能,开放的人工智能生产网络使得监管机构几乎找不到监管对象;另一方面,由上至下的权威结构既不能传递给生产者,信息不对称问题的加剧还可能导致监管行为走向反面。调整治理结构与治理逻辑,并形成适应具有开放性、不确定性特征的人工智能生产模式,是当前面临的治理挑战之一。
再者,治理方法的滞后性,即长久以来建立在人类行为因果关系基础上的法律规制体系,可能难以适用于以算法、数据为主体的应用环境。人工智能的价值并不在于模仿人类行为,而是其具备自主的学习和决策能力;正因为如此,人工智能技术才不能简单地理解为其创造者(即人)意志的表达。程序员给出的只是学习规则,但真正做出决策的是基于大规模数据训练后的算法本身,而这一结果与程序员的意志并无直接因果关联。事实上也正由于这个特点,AlphaGo才可能连续击败围棋冠军,而其设计者却并非围棋顶尖大师。也正是在这个意义上,我们才回到了福柯所言的“技术的主体性”概念。在他看来,“技术并不仅仅是工具,或者不仅仅是达到目的的手段;相反,其是政治行动者,手段与目的密不可分”。[15]就此而言,长久以来通过探究行为与后果之因果关系来规范人的行为的法律规制体系,便可能遭遇窘境:如果将人工智能所造成的侵权行为归咎于其设计者,无疑不具有说服力;但如果要归咎于人工智能本身,我们又该如何问责一个机器呢?由此,如何应对以算法、数据为核心的技术主体所带来的公共责任分配问题,是当前面临的第二个治理挑战。
最后,治理范围的狭隘性,即对于受人工智能发展冲击而引发的新的社会议题,需要构建新的治理体系和发展新的治理工具。人工智能发展所引发的治理挑战不仅仅体现在现有体系的不适应上,同时还有新议题所面临的治理空白问题。具体而言,这又主要包括以下议题:算法是否能够享有言论自由的宪法保护,数据的权属关系究竟如何界定,如何缓解人工智能所可能加剧的不平等现象,以及如何平衡人工智能的发展与失业问题。在人工智能时代之前,上述问题并不存在,或者说并不突出;但伴随着人工智能的快速发展和应用普及,它们的重要性便日渐显著。以最为人所关注的失业问题为例,就技术可能性来说,人工智能和机器人的广泛应用代替人工劳动,已是一个不可否定的事实了。无论是新闻记者,还是股市分析员,甚至是法律工作者,其都有可能为机器所取代。在一个“充分自动化(Full Automation)”的世界中,如何重新认识劳动与福利保障的关系、重构劳动和福利保障制度,便成为最迫切需要解决的治理挑战之一。[16]
上述三方面共同构成了人工智能时代崛起所带来的治理挑战。面对这些挑战,各国也做出了相应的公共政策选择。本文第三部分将对各国人工智能的治理政策进行对比性分析。在此基础上,第四部分将提出本文的政策建议。
三、各国人工智能治理政策及监管路径综述
人工智能时代的崛起作为一种普遍现象,其所引发的治理挑战是各国面临的共同问题,各国也陆续出台了相关公共政策以试图推动并规范人工智能的快速发展。
美国于2016年同时颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级政策框架,前者侧重从技术角度指出美国人工智能战略的目的、愿景和重点方向,而后者则更多从治理角度探讨政府在促进创新、保障公共安全方面所应扮演的角色和作用。就具体的监管政策而言,《为人工智能的未来做好准备》提出了一般性的应对方法,强调基于风险评估和成本-收益考量的原则以决定是否对人工智能技术的研发与应用施以监管负担。[17]日本同样于2016年出台了《第五期(2016~2020年度)科学技术基本计划》,提出了“超智能社会5.0”的概念,强调通过推动数据标准化、建设社会服务平台、协调发展多领域智能系统等各方面工作促进人工智能的发展和应用。[18]
尽管美国和日本的政策着力点不同,但其共有的特点是对人工智能的发展及其所引发的挑战持普遍的包容与开放态度。就当前的政策框架而言,美日两国的政策目标更倾斜于推动技术创新、保持其国家竞争力的优势地位;当涉及对人工智能所可能引发的公共问题施以监管时,其政策选择也更倾向于遵循“无需批准式(permissionless)”的监管逻辑,即强调除非有充分案例证明其危害性,新技术和新商业模式默认为都是被允许的。[19]至于人工智能的发展对个人数据隐私、社会公共安全的潜在威胁,尽管两国的政策框架都有所涉及,却并非其政策重心——相比之下,英国、法国则采取了不同的政策路径。
英国政府2016年了《人工智能:未来决策制定的机遇与影响》,对人工智能的变革性影响以及如何利用人工智能做出了阐述与规划,尤其关注到了人工智能发展所带来的法律和伦理风险。在该报告中,英国政府强调了机器学习与个人数据相结合而对个人自由及隐私等基本权利所带来的影响,明确了对使用人工智能所制定出的决策采用问责的概念和机制,并同时在算法透明度、算法一致性、风险分配等具体政策方面做出了规定。[20]与英国类似,法国在2017年的《人工智能战略》中延续了其在2006年通过的《信息社会法案》的立法精神,同样强调加强对新技术的“共同调控”,以在享有技术发展所带来的福利改进的同时,充分保护个人权利和公共利益。[21]与美日相比,英法的公共政策更偏向于“审慎监管(precautionary)”的政策逻辑,即强调新技术或新的商业模式只有在开发者证明其无害的前提下才被允许使用。[22]
在本文看来,无论是“无需批准式监管”还是“审慎监管”,在应对人工智能时代崛起所带来的治理挑战方面都有其可取之处:前者侧重于推动创新,而后者则因重视安全而更显稳健。但需要指出的是,这两种监管路径的不足却也十分明显。正如前文第二部分所指出,一方面,快速迭代的技术发展与商业模式创新必将引发新的社会议题,无论是算法是否受到言论自由的权利保护还是普遍失业对社会形成的挑战,它们都在客观上要求公共政策做出应对,而非片面的“无需批准式监管”能够处理。更重要的是,“无需批准式监管”的潜在假设是事后监管的有效性;然而,在事实上,正如2010年5月6日美国道琼斯工业指数“瞬间崩盘”事件所揭示的,即使单个电子交易程序合规运行,当各个系统行为聚合在一起时反而却造成了更大的危机。[23]在此种情形下,依赖于合规性判断的“事后监管”基本上难以有效实施。另一方面,人工智能本身的自主性和主体性使得建立在人类行为因果关系基础上的“审慎监管”逻辑存在天然缺陷:既然人类无法预知人工智能系统可能的行为或决策,开发者又如何证明人工智能系统的无害性?
正如本文所反复强调的,人工智能与其他革命性技术的不同之处,正是在于其所带来的社会冲击的综合性和基础性。人工智能并非单个领域、单个产业的技术突破,而是对于社会运行状态的根本性变革;人工智能时代的崛起也并非一夜之功,而是建立在计算机革命、互联网革命直至数字革命基础上的“奇点”变革。因此,面对人工智能时代崛起所带来的治理挑战,我们同样应该制定综合性的公共政策框架,而非仅仅沿袭传统治理逻辑,例如只是针对具体议题在“创新”与“安全”这个二元维度下进行艰难选择。本文在第四部分从承认技术的主体性、重构社会治理制度、推进人工智能全球治理这三方面提出了政策建议,并希望以此推动更深入地围绕人工智能时代公共政策选择的研究与讨论。
四、人工智能时代的公共政策选择
《新一代人工智能发展规划》明确提出了到2030年我国人工智能发展的“三步走”目标,而在每一个阶段,人工智能法律法规、伦理规范和政策体系的逐步建立与完善都是必不可少的重要内容。面对人工智能时代崛起的治理挑战,究竟应该如何重构治理体系、创新治理机制、发展治理工具,是摆在决策者面前的重要难题。本文基于对人工智能基本概念和发展逻辑的梳理分析,结合各国已有政策的对比分析,提出以下三方面的改革思路,以为人工智能时代的公共选择提供参考。
第一,人工智能发展的基石是算法与数据,建立并完善围绕算法和数据的治理体系与治理机制,是人工智能时代公共政策选择的首要命题,也是应对治理挑战、赋予算法和数据以主体性的必然要求。(1)就算法治理而言,涉及的核心议题是算法的制定权及相应的监督程序问题。算法作为人工智能时代的主要规则,究竟谁有权并通过何种程序来加以制定,谁来对其进行监督且又如何监督?长久以来公众针对社交媒体脸书(Facebook)的质疑正体现了这一问题的重要性:公众如何相信脸书向用户自动推荐的新闻内容不会掺杂特殊利益的取向?[24]当越来越多的人依赖定制化的新闻推送时,人工智能甚至会影响到总统选举。也正因为此,包括透明要求、开源要求在内的诸多治理原则,应当被纳入到算法治理相关议题的考虑之中。(2)就数据治理而言,伴随着人工智能越来越多地依赖于大规模数据的收集与利用,个人隐私的保护、数据价值的分配、数据安全等相关议题也必将成为公共政策的焦点。如何平衡不同价值需求、规范数据的分享与应用,也同样成为人工智能时代公共政策选择的另一重要抓手。
第二,创新社会治理制度,进一步完善社会保障体系,在最大程度上缓解人工智能发展所可能带来的不确定性冲击。与历史上的技术革命类似,人工智能的发展同样会导致利益的分化与重构,而如何保证技术革命成本的承受者得到最大限度的弥补并使所有人都享有技术发展的“获得感”,不仅是社会发展公平、正义的必然要求,也是促进技术革命更快完成的催化剂。就此而言,在人工智能相关公共政策的考量中,我们不仅应该关注产业和经济政策,同时也应该关注社会政策,因为只有后者的完善才能够控制工人或企业家所承担的风险,并帮助他们判断是否支持或抵制变革的发生。就具体的政策设计来说,为缓解人工智能所可能带来的失业潮,基本收入制度的普遍建立可能应该被提上讨论议程了。“基本收入”是指政治共同体(如国家)向所有成员不加任何限制条件地支付一定数额的收入,以满足其基本生活的需求。尽管存在“养懒汉”的质疑,但有研究者已指出,自18世纪就开始构想的基本收入制度很有可能反过来促进就业。[25]芬兰政府已经于2017年初开始了相关实验,美国的一些州、瑞士也做出了一定探索。在人工智能时代尚未完全展现其“狰容”之前,创新社会治理机制、完善社会保障体系,可能是平衡技术创新与社会风险的最佳路径。
第三,构建人工智能全球治理机制,以多种形式促进人工智能重大国际共性问题的解决,共同应对开放性人工智能生产模式的全球性挑战。人工智能的发展具有开放性和不确定性的特征,生产门槛的降低使得人工智能技术研发的跨国流动性很强,相关标准的制定、开放平台的搭建、共享合作框架的形成,无不要求构建相应的全球治理机制。另一方面,跨境数据流动在广度和深度上的快速发展成为了人工智能技术进步的直接推动力,但各国数据规制制度的巨大差异在制约跨境数据流动进一步发展的同时,也将影响人工智能时代的全面到来。[26]故此,创新全球治理机制,在承认各国制度差异的前提下寻找合作共享的可能性,便成为人工智能时代公共政策选择的重要考量之一。就具体的机制设计而言,可以在人工智能全球治理机制的构建中引入多利益相关模式;另一方面,为防止巨头垄断的形成,充分发挥主权国家作用的多边主义模式同样不可忽视。作为影响深远的基础性技术变革,互联网全球治理机制的经验和教训值得人工智能发展所借鉴。
上述三方面从整体上对人工智能时代的公共政策框架做出了阐述。与传统政策局限于“创新”与“安全”之间做出二维选择不同,本文以更综合的视角提出了未来公共政策选择的可能路径。就其内在联系来讲,建立并完善围绕算法和数据的治理体系是起点,其将重构人工智能时代的规则与制度;创新社会治理机制并完善社会保障体系是底线,其将缓解人工智能所带来的影响与波动;构建全球治理机制则成为了制度性的基础设施,推动各国在此之上共同走向人工智能时代的“人类命运共同体”。
五、结语
在经历了60余年的发展之后,人工智能终于在互联网、大数据、机器学习等诸多技术取得突破的基础上实现了腾飞。在未来的人类生活中,人工智能也必将扮演越来越重要的角色。对于这样的图景,我们自不必惊慌,但却也不可掉以轻心。对于人工智能的治理,找到正确的方向并采取合理的措施,正是当下所应该重视的政策议题。而本文的主旨也正在于此:打破长久以来人们对于人工智能的“笼统”式担忧,指出人工智能技术发展的技术逻辑及其所引发的治理挑战,并在此基础上提出相应的政策选择。人工智能治理的这三个基本问题,是重构治理体系、创新治理机制、发展治理工具所必须思考的前提。伴随着我国国家层面战略规划的出台,我国人工智能的发展也必将跃上新台阶。在此背景下,深入探讨人工智能治理的相关公共政策议题,对于助推一个人工智能时代的崛起而言,既有其必要性,也有其迫切性。(来源:中国行政管理 文/贾开 蒋余浩 编选:中国电子商务研究中心)
[参考文献]
[1]国务院关于印发新一代人工智能发展规划的通知[EB/OL]. http://gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[2]霍金. AI可能成就或者终结人类文明[EB/OL].http://raincent.com/content-10-7672-1.html.
[3] Elon Musk. Artificial Intelligence is Our Biggest Existential Threat. https://theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat.
[4] Microsoft's Bill Gates Insists AI is A Threat. http://bbc.com/news/31047780. 2017-8-14.
[5] [以]赫拉利.人类简史[M].北京:中信出版社,2014.
[6] The President in Conversation With MIT’s Joi Ito and WIRED’s Scott Dadich. https://wired.com/2016/10/president-obama-mit-joi-ito-interview/. 2017-8-14.
[7] Turing,A. M. Computing Machinery and Intelligence. Mind,1950,59(236).
[8] [9][10] McCarthy,J.What is Artificial Intelligence. URL:http://www-formal.stanford.edu/jmc/whatisai/whatisai.html.
[11] [12][13] [美]佩德罗-多明戈斯.终极算法:机器学习和人工智能如何重塑世界[M].黄芳萍译.北京:中信出版社,2016.
[14] Benkler,Y. The Wealth of Networks:How Social Production Transforms Markets and Freedom. Yale University Press,2006.
[15] Foucoult,M. Discipline and Punish. A. Sheridan,Tr.,Paris,FR,Gallimard,1975.
[16] Srnicek,N.,& Williams,A. The Future isn't Working. Juncture,2015,22(3):243-247.
[17] Preparing for the Future of Artificial Intelligence. https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf. 2017-8-14.
[18]薛亮.“日本推动实现超智能社会‘社会5.0’”[EB/OL]. http://istis.sh.cn/list/list.aspx?id=10535.
[19] Thierer,A. Permissionless Innovation:The Continuing Case for Comprehensive Technological Freedom. Mercatus Center at George Mason University,2016.
[20] Artificial Intelligence:Opportunities and Implications for the Future of Decision Making.https://gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf.
[21]周衍冰.大数据产业在法国的发展及应用[N].学习时报,2014-11-03.
[22] Thierer,A. D.,& Watney,C. J. Comment on the Federal Automated Vehicles Policy,2016.
[23] [美]杰瑞·卡普兰.人工智能时代:人机共生下财富、工作与思维的大未来[M].杭州浙江人民出版社,2016.
[24] Marcel Rosenbach. How Google and Facebook Can Reshape Elections.http://spiegel.de/international/germany/google-and-facebook-could-help-decide-2017-german-election-a-1120156.html.
[25] Van Parijs,P. Basic Income:A Simple and Powerful Idea for the Twenty-first Century. Politics & Society,2004,32(1).
关键词:高校;人工智能;伦理道德教育
中图分类号:G642.0文献标志码:A文章编号:1674-9324(2019)41-0144-02
一、人工智能课程伦理考虑的基本内涵
人工智能课程中进行伦理考虑,是在人工智能课程中有针对性地加入道德教育的元素。在方式上,可以借用西方的“隐形教育”方式。在内容上,必须符合中国的人工智能发展态势,更要受中国社会主义核心价值体系的引导。目前中国的人工智能课程,过度偏向于技术性。尤其是许多社会机构提供的课程,更是偏向于功利性,目的在于让学习课程的学习者快速获得工作。因此,必须从源头入手,对这些社会机构进行一定的约束和规范,对人工智能课程内容进行整体的架构。
二、高校人工智能课程中伦理考虑的必要性
(一)我国对于科技工作者职业道德建设的要求
首先,科技工作者的职业道德建设是促进社会治理体系现代化的必然要求。加强社会治理制度建设,一靠法治,二靠德治。中国正聚焦力量加强自主创新,科技是第一生产力。基于当代中国语境下,科技工作者的职业道德建设就至关重要。科技工作者对自己的社会责任与伦理责任应该有着充分的理解,在科研活动中既要着眼于为社会提供科学技术上的新成果,同时也要强调在伦理道德建设中起到应有的作用。
其次,从长期看,科技工作者的职业道德建设利于国家科技的发展,利于促进科技难题的解决。发展是连续和间断的同一,科技发展不能一蹴而就。在面临科技瓶颈问题时,就更要求科技工作者具有坚韧不拔的品质和无私奉献的精神。这些精神都是进行职业道德教育中的重要内容,也是科技工作者承担的社会角色中必不可少的特质。
最后,高尚的职业道德是科技工作者奋进的不竭动力。一个科技工作者只有站在最广大人民的立场上,奉献自我才能成就事业。随着全球化的发展,受西方“享乐主义”的负面影响,科技工作者只有更加坚守自我、承担社会责任,才能具有不断前进的精神支柱。
(二)对解决人工智能伦理困境的源头性作用
随着人工智能应用领域的广泛化,以及应用群体的普及化,难以避免的带来一些伦理问题上的困境。例如伦理学中经典的“电车难题”,在当代科技发展中也出现了在人工智能领域的“无人车难题”。无人车产生事故的责任归属与分配就是目前很多学者在关注的伦理问题。人工智能的发展对当前的法律规制,还有现存的人伦规范都产生了挑战。人工智能的未来发展方向,在操作性上要避免技术鸿沟,在设计过程中要坚持算法公开化、透明化,并且在出现数据漏洞时应尽快地进行自我修复。这对于科技工作者自身的素质提出了很高的要求,不但要求科技工作者自身的知识素质与知识能力过硬,而且要求科技工作者要严于律己,具有较高的思想道德素质。要求科技工作者对于人工智能的发展保持理性的态度,坚持为国为民。许多科幻电影和小说中都体现了未来人工智能发展到一定阶段时,人与机器产生的情感迷思。作为科技工作者,在设计与调整过程中都应保持情感中立,勇于承担社会责任。目前我国正处于人工智能发展的初级阶段,人工智能尚不能拥有自主意识,人工智能的行为责任必须要找到其背后的拥有自主意识的人。无论是现阶段还是未来,作为人工智能产品开发者与设计者的科技工作者树立正确的价值观和承担相应的社会责任是十分必要的。科技工作者的知识层次与道德品质在某种程度上说,是研发人工智能产品的起点。因此,对科技工作者的成长过程中进行持续的道德教育,使其树立高尚的道德观念,对于解决许多人工智能带来的伦理困境都具有源头性、基础性的作用。
三、高校人工智能课程与伦理道德教育的结合方式探索
(一)高校人工智能课程资源的充分运用与更新
从资源形态上看,实物化资源与虚拟化资源,线上资源与线下资源都应充分运用。随着智能校园的普及,有基础条件的地区与校园可以充分运用好身边的人工智能。人工智能课程是一门理论与实践相结合的课程,因此课程的内容也不能仅停留在理论层面。除了对于学术资源的运用,也应当结合实体的人工智能产品进行学习。但因为人工智能的发展程度还没有普及化,人工智能机器人也远没有达到触手可及的程度。因此运用新媒体技术,通过虚拟现实的手段进行在教学过程中的知行结合是可以尝试的路径。VR技术在网络设备硬件教学中可以节约成本,便于人工智能课堂的普及化。在理论教学中,可以通过与虚拟机器人的交互增强趣味性。VR技术有3个最突出的特点:交互性、沉浸性和构想性。课程设置者可以充分借助VR的沉浸性设置相应的场景,让课程学习者通过对特定道德场景的判断引出思考。这种新媒体手段既可以更新原有课堂知识的教学教法,更适合作为伦理教育走入人工智能课堂的重要媒介。
从资源时态上看,人工智能课程资源必须随着人工智能的发展而不断更新。从现实角度来看,最初开设人工智能课程时,其教学目标还是相对简单的——即培养学生的创造性与知识能力。但随着人工智能的普及应用,产生了许多人工智能语境下的道德困境。从指导思想来看,我国逐步走向世界舞台,随着实力增强指导思想也是不断变化的,新时代会提出新目标,为了实现中华民族的伟大复兴,课程内容的丰富也是十分必要的。因此,人工智能课程若要符合时代需要,就需要不断地更新课程资源。人工智能这一学科是具有学科交叉性的,与之相关各个领域的最新前沿问题都需要结合相应的道德教育,只有这样才能适应时代的发展。
(二)高校人工智能课程内容的合理架构
对于不同年龄层次的人工智能课程,必须考虑到不同群体的教育规律。提出合理的教育目标,用不同群体可以接受的方式方法才能达到最优的教学效果。我国人工智能课程目前的课程架构中,已经有学者进行了分年龄层次的研究。人工智能课程可以规划为专业性逐渐增强的、从边缘到中心的课程层级系统。对于高校本科生和研究生来说,人工智能课程设置内容必须具有专业性。在上文的课程体系建构中添加了艺术、文学、哲学等内容,其中包含对于人工智能伦理学的思考与认识。但在某种意义上这些青年的社会价值观就代表了未来科技工作者的社会价值观。因此在这一阶段,人工智能课程的架构与实施,国家应加以引导和监督。一方面需要建立统一标准的高校人工智能课程体系,另一方面在應对课程具体内容的落实方面给予一定程度的监督。
(三)在高校人工智能课程教学过程中充分运用案例
首先应充分运用学术案例,例如度量学习,在其基础上的迁移学习,以及发表在《机器学习》、《数据挖掘》等顶级期刊上的论文。使课堂具有含金量,可以说这也是国家发展与关注的重点。通过学术性经典案例的学习可以拥有不一样的视角,通过历史发展的角度去看人工智能技术的演变与发展。其次应充分运用具体案例。在人工智能课程中对于许多道德问题,不应抽象地去讨论,而应该具体地去讨论。也可以让学生与AI系统进行直接的问答,如:我们能保证它们稳定可靠吗?我们应该如何去测试人工智能?人工智能课堂中既要包容学生多元化的答案,不压抑创造性又要对于错误的思想进行思想转化,这就需要教育者具体问题进行具体分析了。