当前位置:首页 > 新闻 > 正文

欧盟人工智能伦理与治理的路径及启示

发布时间: 2019-08-09 15:34   作者: 曹建峰、方龄曼   来源: 人工智能杂志

  当今,AI技术被广泛运用于不同行业领域,深刻变革着人类社会。与此同时,AI的发展也对法律、伦理、社会等提出挑战。在此背景下,人工智能伦理与治理日益受到重视,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理准则的热潮。而欧盟从2015年起就在积极探索人工智能伦理与治理举措,虽然在AI技术的发展上没能先发制人,AI治理方面却走在了世界前沿。欧盟希望通过战略、产业政策、伦理框架、治理机制、法律框架等制度构建来研发、应用、部署嵌入了伦理价值的人工智能,以此引领国际舞台。

  一、欧盟积极推进以人为本的人工智能伦理与治理

  数字技术的发展和渗透加速了社会与经济的转型变革,人工智能(AI)作为其中的核心驱动力为社会发展创造了更多可能。一般而言,AI是指基于一定信息内容的投入实现自主学习、决策和执行的算法或者机器,其发展是建立在计算机处理能力提高、算法改进以及数据的指数级增长的基础上。从机器翻译到图像识别再到艺术作品的合成创作,AI的各式应用开始走进我们的日常生活。当今,AI技术被广泛运用于不同行业领域(如教育、金融、建筑和交通等),并用于提供不同服务(如自动驾驶、AI医疗诊断等),深刻变革着人类社会。与此同时,AI的发展也对法律、伦理、社会等提出挑战,带来了假新闻、算法偏见、隐私侵犯、数据保护、网络安全等问题。在此背景下,人工智能伦理与治理日益受到重视,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理准则的热潮。而欧盟从2015年起就在积极探索人工智能伦理与治理举措,虽然在AI技术的发展上没能先发制人,在AI治理方面却走在了世界前沿。

  早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立专门研究机器人和人工智能发展相关法律问题的工作小组。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics),呼吁欧盟委员会评估人工智能的影响,并在2017年1月正式就机器人民事立法提出了广泛的建议,提出制定“机器人宪章”[1]。2017年5月,欧洲经济与社会委员会(EESC)发布了一份关于AI的意见,指出AI给伦理、安全、隐私等11个领域带来的机遇和挑战,倡议制定AI伦理规范,建立AI监控和认证的标准系统[2]。同年10月,欧洲理事会指出,欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定,并邀请欧盟委员会在2018年年初提出应对人工智能新趋势的方法[3]。为解决人工智能发展和应用引发的伦理问题,欧盟已将AI伦理与治理确立为未来立法工作的重点内容。

  2018年4月25日,欧盟委员会发布政策文件《欧盟人工智能》(Artificial Intelligent for Europe),欧盟人工智能战略姗姗来迟。该战略提出以人为本的AI发展路径,旨在提升欧盟科研水平和产业能力,应对人工智能和机器人带来的技术、伦理、法律等方面的挑战,让人工智能更好地服务于欧洲社会和经济的发展。欧盟人工智能战略包括三大支柱:其一,提升技术和产业能力,促进人工智能技术广泛渗透到各行各业;其二,积极应对社会经济变革,让教育和培训体系跟上时代发展的步伐,密切监测劳动力市场的变化,为过渡期劳动者提供支持,培养多元化、跨学科人才;其三,建立适当的伦理和法律框架,阐明产品规则的适用,起草并制定人工智能伦理指南(AI ethics guidelines)[4]。2018年6月,欧盟委员会任命52名来自学术界、产业界和民间社会的代表,共同组成人工智能高级专家小组(High-Level Expert Group on AI,简称AI HELP),以支撑欧洲人工智能战略的执行。

  2019年1月,欧盟议会下属的产业、研究与能源委员会发布报告,呼吁欧盟议会针对人工智能和机器人制定全方位的欧盟产业政策,其中涉及网络安全、人工智能和机器人的法律框架、伦理、治理等[5]。2019年4月,欧盟先后发布了两份重要文件——《可信AI伦理指南》(Ethics Guidelines for Trustworthy AI,简称“伦理指南”)[6]和《算法责任与透明治理框架》(A governance framework for algorithmic accountability and transparency,简称“治理框架”)[7],系欧盟人工智能战略提出的“建立适当的伦理和法律框架”要求的具体落实,为后需相关规则的制定提供参考,代表欧盟推动AI治理的最新努力。

  二、人工智能伦理框架建构:可信AI的伦理指南

  为平衡技术创新和人权保障,人工智能伦理框架的构建必不可少。伦理框架为人工智能的设计、研发、生产和利用提供原则指导和基本要求,确保其运行符合法律、安全和伦理等标准。《伦理指南》由AI HELP起草发布,并不具备强制约束力,而欧盟鼓励各利益攸关方积极执行《伦理指南》,促进AI伦理标准形成国际共识。总体而言,除了制定泛欧盟的伦理准则,欧盟希望人工智能的伦理治理能够在不同的层次得到保障。例如,成员国可以建立人工智能伦理监测和监督机构,鼓励企业在发展人工智能时,设立伦理委员会并制定伦理指南以便引导、约束其AI研发者及其研发应用活动。这意味着人工智能的伦理治理不能停留在抽象原则的层面,而是需要融入不同主体、不同层次的实践活动中,成为有生命的机制。

  根据《伦理指南》,可信AI必须具备但不限于三个特征:(1)合法性,即可信AI应尊重人的基本权利,符合现有法律的规定;(2)符合伦理,即可信AI应确保遵守伦理原则和价值观,符合“伦理目的”;(3)稳健性,即从技术或是社会发展的角度看,AI系统应是稳健可靠的,因为AI系统即使符合伦理目的,如果缺乏可靠技术的支撑,其在无意中依旧可能给人类造成伤害。具体而言,可信AI的伦理框架包括以下三个层次:

  (一)可信AI的根基

  在国际人权法、欧盟宪章和相关条约规定的基本权利中,可作为AI发展要求的主要包括:人格尊严、人身自由、民主、正义和法律、平等无歧视和团结一致、公民合法权利等。许多公共、私人组织从基本权利中汲取灵感,为人工智能系统制定伦理框架。例如,欧洲科学和新技术伦理小组(EGE)基于欧盟宪章和相关规定中的价值观,提出了9项基本原则。《伦理指南》在借鉴绝大部分已有原则的基础上,进一步归纳总结出符合社会发展要求的4项伦理原则,并将其作为可信AI的根基,为AI的开发、部署和使用提供指导。

  这些原则包括:(1)尊重人类自主性原则。与AI交互的人类必须拥有充分且有效的自我决定的能力,AI系统应当遵循以人为本的理念,用于服务人类、增强人类的认知并提升人类的技能。(2)防止损害原则。AI系统不能给人类带来负面影响,AI系统及其运行环境必须是安全的,AI技术必须是稳健且应确保不被恶意使用。(3)公平原则。AI系统的开发、部署和使用既要坚持实质公平又要保证程序公平,应确保利益和成本的平等分配、个人及群体免受歧视和偏见。此外,受AI及其运营者所做的决定影响的个体均有提出异议并寻求救济的权利。(4)可解释原则。AI系统的功能和目的必须保证公开透明,AI决策过程在可能的范围内需要向受决策结果直接或间接影响的人解释。

  (二)可信AI的实现

  在AI伦理原则的指导下,《伦理指南》提出AI系统的开发、部署和利用应满足的7项关键要求。具体而言,在《伦理指南》中4项伦理原则作为顶层的伦理价值将对可信AI的研发与应用发挥最基本的指导作用,但7项关键要求则是可以落地的伦理要求。这意味着人工智能伦理是一个从宏观的顶层价值到中观的伦理要求,再到微观的技术实现的治理过程。

  1.人类的能动性和监督

  首先,AI应当有助于人类行使基本权利。因技术能力范围所限,AI存在损害基本权利可能性时,在AI系统开发前应当完成基本权利影响评估,并且应当通过建立外部反馈机制了解AI系统对基本权利的可能影响。其次,AI应当支持个体基于目标作出更明智的决定,个体自主性不应受AI自动决策系统的影响。最后,建立适当的监督机制,例如“human-in-the-loop”(即在AI系统的每个决策周期都可人为干预),“human-on-the-loop”(即在AI系统设计周期进行人工干预),以及和“human-in-command”(监督AI的整体活动及影响并决定是否使用)。

  2.技术稳健性和安全

  一方面,要确保AI系统是准确、可靠且可被重复实验的,提升AI系统决策的准确率,完善评估机制,及时减少系统错误预测带来的意外风险。另一方面,严格保护AI系统,防止漏洞、黑客恶意攻击;开发和测试安全措施,最大限度地减少意外后果和错误,在系统出现问题时有可执行的后备计划。

  3.隐私和数据治理

  在AI系统整个生命周期内必须严格保护用户隐私和数据,确保收集到的信息不被非法利用。在剔除数据中错误、不准确和有偏见的成分的同时,必须确保数据的完整性,记录AI数据处理的全流程。加强数据访问协议的管理,严格控制数据访问和流动的条件。

  4.透明性

  应确保AI决策的数据集、过程和结果的可追溯性,保证AI的决策结果可被人类理解和追踪。当AI系统决策结果对个体产生重大影响时,应就AI系统的决策过程进行适当且及时的解释。提升用户对于AI系统的整体理解,让其明白与AI系统之间的交互活动,如实告知AI系统的精确度和局限性。

  5.多样性、非歧视和公平

  避免AI系统对弱势和边缘群体造成偏见和歧视,应以用户为中心并允许任何人使用AI产品或接受服务。遵循通用设计原则和相关的可访性标准,满足最广泛的用户需求。同时,应当促多样性,允许相关利益相关者参与到AI整个生命周期。

  6.社会和环境福祉

  鼓励AI系统负担起促进可持续发展和保护生态环境的责任,利用AI系统研究、解决全球关注问题。理想情况下,AI系统应该造福于当代和后代。因此AI系统的开发、利用和部署应当充分考虑其对环境、社会甚至民主政治的影响。

  7.问责制

  其一,应建立问责机制,落实AI系统开发、部署和使用全过程的责任主体。其二,建立AI系统的审计机制,实现对算法、数据和设计过程评估。其三,识别、记录并最小化AI系统对个人的潜在负面影响,当AI系统产生不公正结果时,及时采取适当的补救措施。

  值得注意的是,不同的原则和要求由于涉及到不同利益和价值观,互相间可能存在本质上的紧张关系,因此决策者需要根据实际情况作出权衡,同时保持对所做选择的持续性记录、评估和沟通。此外,《伦理指南》还提出了一些技术和非技术的方法来确保AI的开发、部署和使用满足以上要求,如研究开发可解释的AI技术(Explainable AI,简称XAI)、训练监控模型、构建AI监督法律框架、建立健全相关行业准则、技术标准和认证标准、教育提升公众伦理意识等。

  (三)可信的AI的评估

  《伦理指南》在前述7项关键要求的基础上,还列出了一份可信AI的评估清单。评估清单主要适用于与人类发生交互活动的AI系统,旨在为具体落实7项关键要求提供指导,帮助公司或组织内不同层级如管理层、法务部门、研发部门、质量控制部门、HR、采购、日常运营等共同确保可信AI的实现。《伦理指南》指出,该清单的列举评估事项并不总是详尽无遗的,可信AI的构建需要不断完善AI要求并寻求解决问题的新方案,各利益攸关方应积极参与,确保AI系统在全生命周期内安全、稳健、合法且符合伦理地运行,并最终造福于人类。

  可见,在欧盟看来,人工智能伦理是一项系统性的工程,需要伦理规范和技术方案之间的耦合。其他国家和国际社会的人工智能伦理构建可能多数还停留在抽象价值的提取和共识构建阶段,但欧盟已经更进一步,开始探索搭建自上而下的人工智能伦理治理框架。

  以上内容精选于《人工智能》杂志第十一期

  本文作者

  曹建峰

  腾讯研究院高级研究员,中国互联网协会青年专家,广东省法学会信息通信法学研究会理事,长期从事互联网法律政策和前沿技术研究,关注领域包括人工智能与法律交叉领域、算法治理、自动驾驶法律政策、数据及平台法律、法律科技、网络知识产权和科技法等,在《法律科学》、最高人民法院内参《信息周报》、国家行政学院《行政改革内参》、《大数据》《信息安全与通信保密》《学习时报》《法制日报》、FT中文网等各类媒体上发表论文、文章上百篇。

  方龄曼

  腾讯研究院法律研究中心助理研究员,华南理工大学知识产权法学硕士。研究方向为知识产权法,网络法。

  欲阅读完整文章,可通过以下方式购买《人工智能》杂志!

  订阅2019年《人工智能》杂志6期共计360元

  银行转账:北京赛迪出版传媒有限公司

  开户行及账号:中国建设银行股份有限公司北京紫竹桥支行11050170560000000152

  银行转账,请备注:人工智能

  接收详细信息请发到:aiview@ccidmedia.com;或是添加客服微信:13601092749

收藏