当前位置:首页 > 新闻 > 正文

人工智能道德的问题、挑战与前景

发布时间: 2019-08-09 15:40   作者: 苏令银   来源: 人工智能杂志

  人工智能道德是人工智能中的一个新兴的研究领域,讨论人工智能道德的可能性及其对个人和社会的影响非常重要。人工智能道德已经嵌入了一些应用领域,但其应用的可能性和范围存在一定的限度和问题。人工智能系统中道德机器建构和道德能力实现面临一系列挑战,人工智能道德的发展及其对人类道德实践影响的前景仍难以预料。

  人工智能旨在塑造或模拟人类的认知能力,人工智能道德是人工智能领域的一个新兴领域,更具体地说,人工智能道德探索人工智能系统是否以及如何提供道德能力。这将对人类的生活产生深远影响。本文探讨了界定人工智能道德的可能性和范围的关键概念,提出在人工智能系统中实施道德能力时应采取的策略,并在此背景下探讨人工智能道德的前景和挑战。首先,给出了一些人工智能道德的应用领域并讨论了为什么这些领域需要人工智能道德。其次,讨论了人工智能道德中的两个基本概念问题,即人工智能系统能否成为道德主体;如何在人工智能道德的背景下理解道德。这些简明的结果将是人类道德与人工智能道德之间的比较,这表明人工智能系统可以而且应该是功能性的道德主体,但不是完全的道德主体。再次,在一般层次上仔细研究道德能力如何在人工智能系统中功能性地实现。概念上的澄清和在人工智能系统中实现道德能力的战略发展是最后一部分的背景。最后,讨论了在公共话语中经常出现的一些支持和反对人工智能道德的论点,并权衡了人工智能道德的前景和挑战。

  一、人工智能道德的应用领域

  人工智能系统能够完成的任务越来越多,它们参与工业生产、驾驶飞机或无人机、交易高频股票,以及控制人们的工作和生活环境。有时机器会做一些艰苦、肮脏、危险或令人不快的工作;有时它们只是比人类的生理和认知能力更快或更准确。人们希望使用人工智能系统可以让人类的双手和大脑自由地进行更有吸引力、更具挑战性和创造性的活动。这就要求机器能够独立完成自己的任务,不受人类长期控制和监督。然而,人工智能系统越智能、越自主,就会面临越多需要进行自主道德决策的情况。

  人工智能道德的一个新兴应用领域是智能扫地机器人。以Roomba这样的吸尘机器人为例,与传统的真空吸尘器不同,它是自主的、不是由人操作的。然而,即使是这样一个简单的系统也面临着一个基本的道德挑战:它是应该吸尘从而杀死挡住它去路的瓢虫,还是应该把它赶走?遇到蜘蛛怎么样?它应该消灭蜘蛛还是拯救蜘蛛?有人可能会怀疑,这些是否真的是由道德决定。然而,人们的观点是毫无理由地杀死或伤害(某些)动物是不对的,这是道德上的考虑。当然,普通的Roomba没有能力做出这样的决定。但也有人试图创造一个将动物生命考虑在内的改良版本。人工智能道德不仅关注科幻小说中出现的场景,还关注实际的技术现实。人工智能系统的应用领域越复杂,它们必须面对的道德决策就越复杂。

  人工智能道德的另一个新兴应用领域是智能护理机器人。在具有道德能力的自主人工智能系统帮助下应对人口老龄化,这些系统可用于家庭护理。在这种情况下,需要做出道德决定的情况是,例如:老年护理系统应该以多频繁、多强烈的方式提醒老年人进食、饮水或服药?系统是否应该一直监视用户以及它应该如何处理收集到的数据?在这些情况下所涉及的道德价值是自主、隐私、身体健康和亲属的关心。

  人工智能道德应用的另一个重要领域是自动驾驶汽车。但是,自动驾驶汽车不仅面临道德决策,而且面临道德困境。道德困境是一种新“电车难题”,在这种情况下,主体人只能在两个(或两个以上)选项中做出选择,而这两个(或两个以上)选项并非没有道德问题的后果。一个著名的例子是所谓的“电车难题”[1],它可以追溯到哲学家菲利帕·福特(Philippa Foot)的著作。这是一个思想实验,旨在测试人类的道德直觉,在道德上是否允许甚至要求牺牲一个人的生命来拯救另外几个人的生命。自动驾驶汽车在结构上可能面临类似的情况,在这种情况下,一个人为了拯救他人而受伤或死亡是不可避免的。假设一辆自动驾驶汽车突然刹车失灵,它只能选择撞上两组人中的一组:一组是两名老年男性、两名老年女性和一条狗;另一组是一个年轻的女人带着一个小男孩和一个小女孩。如果撞上第一组,两名妇女将被杀死,两名男子和狗将受伤。如果它撞上第二组,孩子们会被杀死,女人会受伤。牵狗的老年人群体行为符合交通法规,而妇女和儿童违反红灯,这两者是否相关?如果其中一位老人是一位年轻的医生,他可能会挽救许多人的生命,那么情况会有所改变吗?如果自动驾驶汽车只能牺牲乘客来拯救其他交通参与者的生命,会发生什么?如果无法解决这些难题,这可能会成为自动驾驶的严重障碍。

  二、人工智能道德的可能性与范围

  人们必须意识到,人工智能系统可能显示的原始形式的道德主体并不等于完全的道德主体,因为完全的道德主体只属于人类。这部分是由于人工智能系统的道德能力局限于某些领域。相比之下,人类道德的范围要广得多,可适用于任何环境。赋予人类的全部道德能动性不仅包括道德信仰和亲态度,还包括意向态度、现象意识、自由意志,以及使道德态度本身成为反思和辩护对象的能力。

  现象意识是处于一种精神状态的主观体验。例如,了解道德的情感方面,感受道德情感,如同情、内疚或羞耻都是很重要的,现象意识关注这些情绪的感受。尽管有人试图为人工智能系统提供功能上等同于内疚、悔恨或悲伤等情绪的状态,但被忽略的是这些道德情绪。现象意识是人类道德生活丰富性的一个重要方面。因此,就目前的技术水平而言,人工智能道德最多只能提供与高度受限领域中人类道德生活的认知方面相同的功能。虽然人工智能系统没有现象意识,但它们可以拥有所谓的“访问意识”[2]。也就是说,它们的表征状态被用作推理的前提,从而导致理性行为。道德责任的一个重要方面是考虑个人道德推理的能力,而目前的人工智能系统无法做到这一点。它们没有能力反思和证明自己的道德推理。这种高级推理的能力往往被认为是意志自由的核心原则,这是道德责任所必需的。因此,缺乏这种能力的人工智能系统不是道德上负责任的行动者。如果一个系统能够质疑它的道德决定,甚至选择不道德的行动,那么它的用户将面临严重的风险。这并不是说,建立具有这些先进道德能力的体系是不可能的。然而,在具有适合于实际目的的道德能力系统中,这些原则既不是必要的,也不是可取的。

  人类道德与人工智能道德之间的相关概念必须加以限定。目前的人工智能系统在功能上并不等同于成熟的人类道德主体。它们的成熟程度可以被比作一个小孩子为了道德上的原因而按照父母告诉他的标准行事。当然,即使是小孩子,也比人工智能系统拥有更丰富的意向态度,如恐惧、希望等。此外,儿童具有非凡的意识、对他人的天然同情和自由意志,至少在某种意义上,他们可以拒绝做父母让他们做的事。与人类相比,人工智能系统是更原始和更受限制的道德主体。人工智能系统越接近完全的道德主体,关于它们自身道德地位的问题就会变得越必要。如果这些系统具有现象意识、自由意志或反思道德思考的能力,那么在道德上仍然允许使用这些系统来为人们服务吗?如果人们不想在自己的智能设备上面临这些问题,就不应该试图建立完整的人工智能道德主体。有人可能会反对说,这些情景完全是假设的,不可能发生这种情况。但是,对技术的伦理评估往往集中在少数的困难案例上,而一旦出现就会引发激烈的讨论,比如延长和维持人类生命的例子。关键是无论这种情况发生的频率如何,它们是否会触及基本的伦理问题,这也是在自动驾驶中可能出现的困境。

  如智能扫地机器人这样简单的人工智能系统已经面临道德决策。这些技术变得越智能和自主,它们所面临的道德问题就会变得越复杂。因此,考虑人工智能道德的前景和风险是很重要的。有人可能会说,在这些情况下做出道德决策的不是智能扫地机器人、智能护理系统或自动驾驶汽车,而是这些设备的设计者。然而,人工智能发展得越多,这个界限就越模糊。AlphaGo及其后续的AlphaGo Zero是由谷歌DeepMind开发的人工智能系统用于围棋。这是第一个在全尺寸棋盘上击败世界上最好的职业棋手之一的计算机程序。围棋被认为是一种认知困难、要求极高的游戏,它比国际象棋等其他游戏更难让人工智能系统获胜。一个道德上微妙的例子是微软的聊天机器人Tai,它本应通过与用户互动来学习,结果却变成了一个性别歧视和种族歧视者。因此,人工智能道德发生在人工智能系统、设计师和用户三者之间。在讨论人工智能道德时,准确地确定各主体的贡献,明确赋予道德主体和责任是最重要的任务之一。

  人工智能道德的核心问题之一是,人工智能系统本身是否可以算作道德主体。这个问题提出了两个进一步的问题:第一个问题涉及一般的主体需要说明必须满足的标准,才能使某物具备成为主体的资格,并且必须表明至少有一些人工智能系统满足这些标准。第二个问题是使一个主体成为道德主体的条件是什么,以及人工智能系统是否不仅是主体也是道德主体。

  以上内容精选于《人工智能》杂志第十一期

  本文作者

  苏令银

  上海师范大学经济伦理研究中心副主任,上海师范大学马克思主义学院副教授、法学博士、硕士生导师。主要研究方向:人工智能伦理、机器人伦理。

  欲阅读完整文章,可通过以下方式购买《人工智能》杂志!

  订阅2019年《人工智能》杂志6期共计360元

  银行转账:北京赛迪出版传媒有限公司

  开户行及账号:中国建设银行股份有限公司北京紫竹桥支行11050170560000000152

  银行转账,请备注:人工智能

  接收详细信息请发到:aiview@ccidmedia.com;或是添加客服微信:13601092749

收藏