当前位置:首页 > 新闻 > 正文

用信任解码人工智能伦理

发布时间: 2019-08-09 15:38   作者: 闫宏秀   来源: 人工智能杂志

  人工智能的发展将关于人对技术的信任、人与人之间的信任、人与技术之间的信任等置于了一种前所未有的场景之中。人工智能的信任度本身既是人工智能技术发展中面临的一个核心问题,也是人工智能伦理构建中的一个核心问题。从信任在人工智能中的产生、表征及其构成等为切入点,以人类对伦理学的信任、人类对人工智能的信任、人工智能自身的信任度、人工智能系统中各个代理间的信任等四个要素开启人工智能伦理构成要素之径,以有效监督的信任为前提审视人与人工智能的合作,确保人工智能向善。

  人工智能伦理是人工智能未来发展的锚定桩。其包括对人工智能相关伦理问题的批判性反思,对人工智能的伦理目标厘清与界定,以及伦理自身效用等的审度。有效的人工智能伦理被视为推进人工智能向善、确保人类对其可控及不受伤害、确保人类尊严与人类福祉的一个重要保障,但人工智能伦理的构建并非易事。关于伦理应当发挥何种作用、如何发挥作用、以何种伦理观念为指导等的争议一直不断。如2019年3-4月之间,谷歌关于外部专家委员会(Advanced Technology External Advisory Council,简称ATEAC)的成立[1] 、谷歌部分员工对外部专家委员会的抗议等[2]一系列事件就凸显了人工智能对伦理的期待,以及人工智能伦理构建所面临的挑战与问题。特别是人工智能发展所呈现出的能动性、自主性等技术特质,将主体与客体的边界逐渐消融,将关于人对技术的信任、人与人之间的信任、人与技术之间的信任等置于了一种前所未有的场景之中。

  一、信任是人工智能的一个核心问题

  关于人工智能伦理的研究, 早在20世纪60年代就已经展开。如温纳(Nobert Wiener)在其关于自动化的道德问题和技术后果的探讨中,揭示了机器的有效性与危险性[3];随后,塞缪尔(Arthur L.Samuel)在《科学》发表文章,对维纳所主张的机器具有原创性或具有意志进行反驳,进而指出机器不可能超越人类智能,并认为维纳将机器类比人类奴隶是不恰当的[4]。但近年来,伴随大数据、机器学习、神经网络等的发展,关于机器是否具有原创性或具有意志、人工智能是否能被视为道德主体,以及人工智能是否超越人类的争论日趋激烈。

  这些争论,究其本质而言,是源自对人类是否能够控制技术并使其能为人类服务这一问题的反思。而上述反思至少直接指向了人类对自身的信任及对技术是否可信的两个方面。简单地说,从人类自身的角度来看,若人类相信自己能够有效地控制人工智能,那么,上述问题也将迎刃而解;退一步讲,从技术的角度来看,若人工智能技术自身是安全可靠的,那么,至少人工智能可以被视为是一项可信的技术,而这种可信反过来也将大大推进其发展[5]。但若上述两种信任缺失,则人工智能的未来发展也不容乐观。因此,人工智能的信任度是人工智能技术发展中面临的一个核心问题。如,在当下,IBM就以“trusted AI”为其研究目标,积极致力于研究构建能够使人类信任的人工智能。与此同时,人工智能的信任度也是人工智能伦理构建中的一个核心问题。

  但事实是,迄今为止,上述两个方面都是假设性的存在。从技术的维度来看,以基于人工智能系统的无人驾驶为例,就因其在技术方面的不稳健性所引发诸多问题,从而遭遇到了质疑。在这些质疑中,也包括关于其伦理质疑;从关于人工智能伦理构建的维度来看,虽然目前尚未形成统一的文本,但信任却是与人工智能伦理相关的框架、原则、宣言等文件中的一个高频词。如:

  2016年底,电气与电子工程协会(IEEE)在其所阐述的“伦理辅助性设计”(Ethically Aligned Design)中,将构建人与人工智能系统间的正确的信任层级视为一个重要议题,并指出应建立包括标准和规范机构在内的治理框架,来监督保证的过程和事故的调查过程,进而促进公众对人工智能和自动化系统信任的构筑[6];2017年7月,我国国务院发布了《新一代人工智能发展规划》。其中,“促进社会交往共享互信,促进区块链技术与人工智能的融合,建立新型社会信用体系,最大限度降低人际交往成本和风险”是一项重要的内容[7]; 2018年12月18日,欧盟委员会由52名来自多个领域的专家所组成的人工智能高级专家组起草了“可信任人工智能的伦理框架草案”(Draft Ethics Guidelines For Trustworthy AI),经过几个月的意见征询后,于2019年4月18日发布了《可信任人工智能的伦理框架》( Ethics Guidelines For Trustworthy AI)。该框架明确将构建可信任作为人工智能未来发展趋势[8];2019年2月,欧洲政策研究中心在其所发布的《人工智能:伦理,治理和政策的挑战》”(Artificial Intelligence:Ethics, governance and policy challenges)中认为,在当今社会,人工智能的发展加速了信任的退化。因此,应当采取行动,以推进负责任地和可信任地使用人工智能[9];2019年6月,美国人工智能特别委员会、美国国家科学技术委员会发布了《国家人工智能研究和发展战略计划:2019更新版》( The National AI R&D Strategic Plan: 2019 Update),构建信任被列为人工智能未来发展的一项任务[10]; 2019年6月,在国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》中,“安全可控”为第五条原则,并指出:“人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。”[11]

  综上所述,在人工智能伦理的构建中,信任被视为是人工智能发展的一个核心问题。那么,是否可以用信任来解码人工智能伦理呢?关于此, 需要从信任在人工智能中产生、表征以及构成等为切入点来进行解析。

  二、基于有效监督的信任是人与人工智能合作的必要条件

  人工智能的发展带来了一种新型的人与技术关系。人类对技术的依赖性越来越高,技术成为了人类智能的陪伴,并在某些方面呈现出了超越人类智能的趋势。伴随人工智能在人类社会中的广泛应用,人类与人工智能系统之间的合作日益加强。虽然存在没有信任的合作,但人与人工智能的这种合作方式,因人工智能对人本身以及人类行为深度植入性和巨大影响而必须有信任的介入。毫无疑问,信任的缺失,将影响人工智能所能产生的效应,但这种信任并非是盲目信任、滥用信任、错误信任等非理性的信任方式。恰如皮埃罗·斯加鲁菲(Piero Scaruffi)所示:“我并不害怕机器智能,我害怕的是人类轻信机器。”[12]

  技术是人类在世的一种方式。人类正是借助技术谋求自身的发展,离开技术,几乎无法去探讨人类的发展。也正是在这种谋求的过程,人与技术之间的信任关系伴随人对技术的依赖而不断被建构起来。特别是当今的人工智能,更是将人与技术之间的信任关系推向了一个新的高度。与此同时,对二者之间信任关系的反思也与日俱增。如,以基于人工智能系统的决策为例。在当下,人工智能系统为人类的决策提供信息,甚至引导人类的决策。当人类借助、委托、授权人工智能进行决策时,信任就随之涌现出来,且人对人工智能系统的信任度将影响决策。假设信任度的阈值为0-1。当信任度为0,即人类完全不信任人工智能时,人类所做出的决策与人工智能系统无关。但鉴于人工智能系统在当今的深度植入,完全不信任的可能性已然不现实;当信任度为1,即人类完全信任人工智能时,则人工智能系统所输出的决策就直接等同于人类所做出的决策。与上述情况类似,鉴于当下人工智能在技术方面所存在的不稳健性,如自动驾驶所存在的隐患等,完全信任也同样不可取。

  杰夫·拉尔森(Jeff Larson)等人就曾对基于机器学习而进行累犯预测的软件——替代性制裁的惩罚性罪犯管理量表(Correctional Offender Management Profiling for Alternative Sanctions,简称COMPAS)的有效性展开剖析[13]。从COMPAS所做出的预测来看,黑人被告比白人被告更可能被错误地认为是成为累犯的风险更高,而白人被告比黑人被告则更有可能错误地标记为低风险的累犯。但事实上,关于黑人被告的累犯预测是高于现实的,而关于白人的累犯预测则是低于现实的。在未来两年中,白人被告累犯被误判为低风险的是黑人被告累犯的近两倍(48%比28%)[14],即依据该软件所做出的预测,与现实并非完全吻合,因此,应当审慎地对待COMPAS输出的结果。但这种质疑事实上并非意味着对COMPAS的完全不信任,而是旨在探究怎样的人与技术信任才可以以有效的方式确保人工智能向善,对人类不造成伤害。

  信任是一个动态的交互过程。就人与技术的合作而言,信任是人对技术心理的预期与技术自身效能的一种混合交互。就人际间信任而言,无监督的信任是其最高层级,是委托人对受托人的完全信任。但就人与技术的信任而言,恰恰需要的是有监督的信任。如果说传统意义上的人与技术之间的信任,可以逐步还原到人与人之间的信任,进而可以借助人际间的信任来确保人与技术之间的信任。但就人与人工智能系统而言,由于人工智能系统的能动性与自主性等所带来的某种不可解释性、不透明性、不可追溯性等,上述还原越来越难,因此,人与人工智能的合作必须基于有效监督的信任。但该如何用信任解码人工智能伦理呢?关于此的解答,首先需要从伦理学的视角来厘清人工智能信任的构成要素。

  以上内容精选于《人工智能》杂志第十一期

  本文作者

  闫宏秀

  博士,毕业于复旦大学哲学系,并于同年进入上海交通大学,牛津大学互联网研究院和牛津大学哲学系访问学者,现担任上海自然辩证法研究会理事、上海中青年技术哲学论坛发起人、负责人,中国自然辩证法研究会技术哲学专业委员会常务理事、上海技术哲学专业委员会主任等。在《自然辩证法研究》《科学技术哲学研究》《道德与文明》《探索与争鸣》《科学学与科学技术管理》等本学科顶尖期刊发表文章30多篇,由上海市学术著作出版资助专著1本、国家出版基金项目资助专著1本、译著3本,参编与主编国家级等各类教材6本,主持国家级、教育部、上海市等各类项目20余项,相关研究成果被上海市科协等纳入决策咨询与发展研究报告等。研究方向为技术哲学、技术伦理学和设计哲学。

  欲阅读完整文章,可通过以下方式购买《人工智能》杂志!

  订阅2019年《人工智能》杂志6期共计360元

  银行转账:北京赛迪出版传媒有限公司

  开户行及账号:中国建设银行股份有限公司北京紫竹桥支行11050170560000000152

  银行转账,请备注:人工智能

  接收详细信息请发到:aiview@ccidmedia.com;或是添加客服微信:13601092749

收藏