人工智能伦理问题与安全风险治理的全球比较与中国实践
从全球范围来看,利益相关体已经提出了诸多人工智能治理原则以试图通过“软体系”的方式应对人工智能发展和应用所引发的伦理问题与安全风险。本文指出,人工智能的主体性挑战、代码作为规则重要性的提升以及“黑箱性”的存在构成了以“软体系”应对人工智能伦理问题与安全风险的特殊原因,而推进理念共识、 聚焦局部议题、创新治理机制则构成了其具体内涵。虽然现有方案有利于推动人工智能伦理问题与安全风险的治理进程,但其在关键概念上的模糊、具体内容上的缺失或争议以及决策过程的不足,也引导人们产生更多反思。中国近年来在三个方向积极推进并于 2021 年初形成了《网络安全标准实践指南——人工智能伦理安全风险防范指引》的阶段性成果,该文件界定了人工智能治理的相关主体范围,总结了人工智能伦理问题与安全风险的具体类型,并明确了相关主体所应履行的治理职责。结合全球比较和中国实践的分析,文章进一步对未来人工智能伦理问题与安全风险治理的发展可能提出了三点展望。
清华大学文科资深教授、苏世民书院院长、清华大学中国科技政策研究中心主任薛澜与合作作者贾开在《公共管理评论》上发表文章题为《人工智能伦理问题与安全风险治理的全球比较与中国实践》。
No.1 缘起: 《网络安全标准实践指南——人工智能伦理安全风险防范指引》的发布及其背景
2021 年 1 月,全国信息安全标准化技术委员会(简称“信安标委”)正式发布《网络安全标准实践指南——人工智能伦理安全风险防范指引》 (简称“《指引》”),《指 引》是国家层面出台的首个涉及一般性、基础性人工智能伦理问题与安全风险问题, 并具有可操作性的指引文件,为我国人工智能伦理安全标准体系化建设奠定了重要基础。
近年来,伴随着人工智能技术的快速发展及其在不同领域的普及应用,以推动人工智能“安全、可靠、可控”发展为目标的人工智能合规体系建设也在同步推进。我国初步确立了合规体系建设规划和路线图①,提出了反映各方理念且具有一定共识基础的理念和原则②,也在具体领域制定或修订了针对特定问题的相关标准③。在此背景下,《指引》可被视为新的发展和补充,其既对理念和原则进行了细化,也未局限于特定问题,而是针对人工智能伦理问题与安全风险的共性挑战提出了较为具体的治理框架和行为规范意见。
① 以《新一代人工智能发展规划》《国家新一代人工智能标准体系建设指南》等文件为代表。
②以《新一代人工智能治理原则———发展负责任的人工智能》《人工智能北京共识》等文件为代表。
③包括《信息安全信息安全技术虹膜识别系统技术要求》《信息安全技术基于可信环境的生物特征识别身份鉴别协议框架》《信息安全技术 指纹识别系统技术要求》《信息安全技术 汽车电子系统网络安全指南》《信息安全技术车载网络设备信息安全技术要求》 《信息安全技术智能家居安全通用技术要 求》《信息安全技术智能门锁安全技术要求和测试评价方法》等。
对于《指引》积极意义的肯定,并不意味着人工智能伦理问题与安全风险治理便 “一劳永逸”地得到了解决,甚至不一定意味着我们距离问题的解决“更近了一步”。正如阿西莫格鲁等人所警示的,我们或许连“需要什么样的人工智能”这样的目标性问题,都还不甚了了(Acemoglu and Restrepo,2020)。因此,在我国以及全球范围当前都紧锣密鼓地推进人工智能伦理问题与安全风险治理之时,我们或许有必要跳出围绕具体风险、原则或条款的斟酌与争论,以更加宏观全局的视野认识我们面临的问题以及解决问题的不同路径,并在此比较反思的过程中做出适宜的选择。本文即基于此视角而展开的围绕全球人工智能伦理问题与安全风险治理研究和实践的综述性讨论,其在方法论上可归于文献综述类研究的“元研究” (meta-analysis)范畴。事实上,与近年来快速涌现的诸多人工智能伦理问题与安全风险治理方案相比,围绕方案起草过程的代表性、方案起草者的利益关联、方案有效性的评估、方案内容的缺陷与矛盾等问题的反思与批判,始终都是该领域为数不多但却未曾间断的重要研究路线之一(Greene et al. , 2019;Hagendorff, 2020)。本文可被视为沿袭此类研究并结合中国实践而展开的探索性讨论,希望为大多数关心但并不直接参与制度细节设计的公共管理研究者以及更一般的公众提供一个全球比较与反思的图景。
本文接下来将从五个部分展开论述。第二部分将对人工智能伦理问题与安全风险治理的问题进行界定,既是明确研究对象,也是对可能存在的不同治理目标进行比较与区分。第三部分将总结当前存在的应对人工智能伦理问题与安全风险治理问题的主要方案,从理念、客体、主体三个方面做出综述性解释。第四部分将梳理针对已有方案的批评,在比较分析中厘清主要的反思视角。在此基础上,第五部分将回到中国:一方面总结我国当前推进人工智能伦理问题与安全风险治理的整体性 框架,另一方面也对《指引》的内容特点和重要意义进行解释。第六部分将从未来展望的视角对全文做出讨论和总结。
No.2 问题: 人工智能伦理问题与安全风险治理的独特性
在经历自 1956 年以来的两次发展起伏之后,人工智能技术在当前迎来了第三次发展高潮,并被视为第四次工业革命的标志性技术而得到普遍应用。尽管批评者指出,人工智能不过是硅谷包装的“答案主义” ( Sollutionism) 意识形态的又一个体现 (Morozov,2019),但其“通过脑力劳动的机械化将人类解放出来以从事更有意义活动”的能力(吴文俊,2019),仍然使之在诸多领域体现了一般性技术的变革价值。但与此同时,越来越多的研究逐渐意识到人工智能应用过程中所伴随的治理风险。智能推送算法可能引发的“信息茧房”和极化现象,犯罪风险评估算法体现的种族歧视倾向,人脸识别系统可能构成的全面监控网络,以及就业冲击、舆论操纵、隐私侵害等,都是引发公众关注的典型案例,这也成为推动人工智能伦理问题与安全风险治理的直接动因。尽管到目前为止,各国鲜有出台针对人工智能风险治理的法律法规,但根据德国非营利机构 Algorithm Watch 的统计,政府、企业、社会机构、国际组织、学术团体等全球范围的利益相关体已经提出了 160 多个原则或倡议,构成了人工智能伦理问题与安全风险治理的“软体系”。①
① 本文所指治理“软体系”是区别于具有明确规则和约束力、强制力的“硬法体系”而言的,其旨在分析治理风险、提出治理目标、构建治理机制、提出治理方案,可被视为“硬法体系”形成之前的治理共识的达成过程,或者因难以具体、明确地界定不同主体的责任、权利、义务而采取的其他治理进程。
但新兴技术应用结果可能造成个人权利侵害或社会权力结构转移的风险,并不仅限于人工智能,传统治理体系也并不一定不能做出有效应对。例如,技术社会史的研究揭示,条形码和扫码器的应用提升了零售业的供应链管理效率,因此更有利于大型连锁零售商的运营,但这也并不必然意味着权力结构的集中或中小供应商及零售业工人的边缘化。尽管美国形成了沃尔玛式的垄断结构并抑制了供应商和工人的博弈能力,但德国和丹麦却出现了大型零售商与供应商、工人共享规模经济收益的情况;而在英国和法国,情况则是工人共享收益而供应商却在大型零售商的垂直并购中被边缘化(Watson,2011)。换言之,技术创新和应用所带来的治理风险并不必然导致治理体系的变革,差异化的影响结果更多反映了不同文化、制度的历史沿袭,各国在面对相同技术治理挑战时也并非一定会采取类似的应对方案。由此, 当我们注意到全球范围内不断涌现的人工智能伦理问题与安全风险治理原则或规范之后,一个更深刻的问题便浮现出来:人工智能作为新兴技术的发展与应用,究竟具有何种不同于其他技术的特点,使之要求治理体系和机制的变革? 且这种变革为何又更多以“伦理问题与安全风险治理”的“软体系”面貌出现,而非采取更具约束力的法律规范形式?
较为直接的答案注意到了发展与规制的二元平衡:在新兴技术发展和应用模式尚存较大不确定性的情况下,更具包容性的“软体系”有利于最大限度降低规制对于创新的前置影响。但这仍然只是对于一般规律的总结,并未对人工智能的特殊性做出解释。更多的研究注意到了人工智能作为一般性技术的能力,且与蒸汽机、电力等其他一般性技术不同,人工智能至少在以下三方面体现出独特性。
首先,人工智能第一次体现了主体性挑战。传统数字系统的设计大都体现为人类借助表达能力而进行的需求界定、流程划分、条件判断等系列工作。与此不同,建立在机器学习基础上的人工智能技术流派的发展,可以基于大量数据的学习而自主总结出数据背后的规律与特征,由此体现出与“人”类似的“表达”能力。迈克尔·波兰尼曾指出,“人类知道的远比其能表达出来的更多”,这也构成了人类表达能力的 “波兰尼困境”(Polanyi,2009)。人工智能对此困境的突破,使之具备了一定程度的主体性,并因此使得建立在人类行为因果联系基础上的传统治理体系面临挑战(贾开,2019)。这一变化不仅提升了基于人工智能技术的数字系统的应用范围和深度, 同时也带来了诸如智能排序算法结果是否受到言论自由权利保护、人工智能创作作品能否被纳入版权范畴等一系列挑战。
其次,人工智能的主体性挑战并不仅仅体现为作为技术产出的结果而引发的权利争议,更在于作为影响社会运行重要规则的形成方式的变化。网景公司创始人马克·安德森 2011 年在评论文章中提出的“软件正在吞噬世界”的观点,深刻影响了硅谷的发展进程,其事实上强化了劳伦斯·莱辛格在 20 世纪末提出的“代码即法律”的架构理论。在他们看来,数字化转型的过程,也就是代码作为人类社会运行第四种规则的影响力不断提升的过程。人工智能在扩大数字系统应用范围和深度的同时,也提升了代码作为“规则”的重要性,其不仅影响着每个个体的日常生活,也在一定程度上决定了政治选举、社会舆论、资源分配等诸多重大公共问题。但与法律、市场、社会习俗这些传统规则建立在政治合法性或历史合理性基础上不同,代码作为“规则”的形成过程却很难说具有实质或程序上的正当性。这并不意味着代码规 则仍然决定于利益团体的博弈,人工智能的技术实现过程决定了代码规则的形成过程是技术逻辑、社会逻辑和制度逻辑的复杂结合。以算法歧视为例,已有研究揭示, 之所以搜索引擎算法更大概率上会将黑人姓名与犯罪记录联系在一起,并非设计者有意为之,而是反映了搜索者对黑人是否犯罪这一现象更为关注的社会心理,机器 学习基于大量案例习得了这一规律,并通过最大化点击概率的技术目标将其体现并强化(Sweene,2013)。
最后,人工智能本身技术逻辑及其应用过程存在模糊性,也即“黑箱性”。如果我们在人工智能的所有应用场景都能发现并理解代码规则的形成机制,并及时采取救济或规制措施,那么前述两个独特性挑战也就不足为惧。近年来,数字平台公司不断调整、优化算法以使之符合社会价值要求的做法,便体现了此种思路,其也的确取得了较好效果。但限于商业秘密的保护,我们事实上很难知晓数字公司设计、应用人工智能的基本逻辑;另一方面,更重要的,以算法作为主要体现的人工智能技术已经成为“看不见的手”,并嵌入社会的方方面面,其在不同场景下管理、分类、约束乃至决定整个社会的运行,我们并不能明确界定一个实体对象或工作流程来解释其运行过程。佐治亚理工学院教授伯格斯特形象地将其比喻为“黑洞”:我们能清晰感受到它的影响,却并不能对其内部一窥究竟(Bogost,2012)。
正是基于上述层次递进的三个方面的解释,我们或许才能更深入地理解人工智能的独特性,并因此理解人工智能治理的必要性。我们之所以重视“软体系” 的作用,以及更具体的伦理问题与安全风险,既是出于平衡发展与规制的需要,更重要的原因还在于人工智能主体性挑战背景下,其作为人类社会运行“规则”、运行机制的复杂性和“黑箱性”。技术、社会、制度因素的相互关联,使得人工智能治理难以被置于已有的法律框架之下,在不能清晰界定不同主体责权边界的情况下,唯有通过伦理问题与安全风险治理的“软体系”以促进利益相关体的共同探索,为形成新的治理体系和治理机制准备条件。
No.3 方案: 现有准则规范的思路与特点
人工智能伦理问题与安全风险治理的目的在于建构人工智能发展的合规体系, 在释放技术创新潜力的同时,通过理念的引导、目标的界定、风险的揭示、底线的探索,形成针对人工智能技术产品或者利益相关体的规范性要求,以使得人工智能的发展应用符合人类社会价值需要。就现有研究或实践的进展来看,大致可从理念、 客体、主体三个方面来梳理不同工作的思路和特点。
首先,聚焦于理念,各方从不同视角出发,均试图对“发展什么样的人工智能”问题做出回答,通过核心概念、目标、价值的界定以影响人工智能技术开发与应用进程。人工智能的主体性以及围绕技术政治性的复杂讨论,均提醒我们人工智能发展路径的多元性及其对社会影响的多重性。正因为此,究竟发展什么样的人工智能, 便成为首先要明确且取得共识的重点。尽管“人工智能”概念本身尚存争议①,但这并不影响各方从治理视角对“人工智能”加上“限定语”。未来生命研究所提出的“有 益人工智能”(beneficial AI)(Future of Life Institute, 2017)、英国上议院提出的“伦理性人工智能”(ethical AI)(UK House of Lords, 2017)、欧盟人工智能高级别专家委员会提出并为经合组织所沿用的“可信赖的人工智能”(trustworthy AI)(OECD,2019), 以及中国新一代人工智能治理委员会提出的“负责任的人工智能” (responsible AI), 均是具有广泛影响力的核心概念,在引导利益相关方思考人工智能发展方向的同时,其具体内涵的解释以及由此所衍生的产品和行为规范要求也引导着具体伦理问题与安全风险的治理。
例如人工智能研究领域到目前为止也未能对“人工智能”的定义形成共识,主要的分歧之一在于部分研究者认为只要在结果层面重复人类行为即可称为“人工智能”,但其他研究者认为要在过程中也模 仿人类的思维模式才能被视为“智能”。
其次,聚焦于客体,针对人工智能伦理问题与安全风险治理的不同议题,各方均试图提出整体性的分析框架以将复杂议题局部化、模块化。人工智能伦理问题与安全风险治理的挑战性不仅体现为问题本身的复杂性,同时还体现为包含不同议题的多重性。在认识到难以同时解决所有议题的前提下,利益相关方(尤其是私人部门) 开始聚焦于具体议题,并提出不同解决方案。一般的研究思路是围绕人工智能从研发到应用的全生命周期,从数据的收集整理、模型的训练验证、应用的评估反馈等各个环节分析不同问题,并提出相应解决方案。关注责任问题的“负责任及可解释的人工智能”(Accountability and Explainable AI)(Mittelstadt et al. , 2019)、关注公平问题的“平等及歧视敏感型数据挖掘”(Fairness and Discrimination Data Mining) (Gebru et al. , 2018),以及关注隐私问题的“ 设计隐私” ( Privacy by Design) ( Baron and Musolesi, 2020),均是典型代表,而谷歌、微软、脸书等大型数字平台公司所提出的 “AI Fairness 360 Tool Kit”“What-If Tool”“Fairness Flow”等工具,也为上述问题的解决提供了技术方案。同时,以“FAT ML”(Fairness, Accountability and Transparency in Machine Learning)或“XAI”(Explainable Artificial Intelligence)网络社区为代表,国际 社会已经形成了关注人工智能治理的技术社群,专门针对人工智能伦理问题与安全风险寻找技术解决方案。
最后,聚焦于主体,讨论不同利益相关方在人工智能伦理问题与安全风险治理中的责权分配关系与结构,以形成能够有效应对不确定性的治理体系和机制。正如公共管理学者 Wirtz 和 Muller 所提出的,人工智能伦理问题与安全风险治理不应仅停留于技术层面,一个整体性的人工智能治理框架应同时包含技术层面、组织层面和政策层面(Wirtz and Müller,2019)。与此思路类似,近年来围绕新兴技术治理机制和框架的讨论,已经涌现出了诸多新理念,并逐步形成了较为完整的理论框架,对政府监管者、企业、公众等不同主体围绕新兴技术规制议题的责权关系做出了深入分析。敏捷治理(薛澜和赵静,2019)、实验主义治理( Sabel and Zeitlin,2012)、规制治理(Lobel,2012)都是典型代表,其大都要求在释放基层或一线监管者自由裁量权的基础上,在监管者与被监管者之间形成制约和激励关系,以促使被监管者实行更有效的自我约束。这些理论探讨究竟应该以及在何种程度上应用于人工智能伦理问题与安全风险治理,尚需要更深入的学术研究和案例分析,但其在规范意义上已经成为该领域探索治理机制创新的理论基础。
No.4 比较与反思: 现有方案的争议、缺失与偏差
人工智能伦理问题与安全风险治理的快速发展并不必然意味着我们走在解决问题的正确道路上,对当前工作的批判性反思仍然具有重要价值,能使我们更清楚地认识到进展与不足。事实上,考虑到不同利益相关方会从各自角度提出相应准则规范,即使包括 G20、经合组织、电气与电子工程师协会在内的各类国际组织积极参与其中,围绕人工智能伦理问题与安全风险治理的全球机制也仍然尚未建立,这必然导致相关工作的分散性和不成体系性。面对这样的情况,现有的比较性研究主要从以下三个方面提出了反思性意见。
第一,围绕关键概念的内涵界定尚存争议,并因此影响了全球治理共识的形成, 这集中体现在三点。首先,对于“人工智能”概念的界定存在多重解释,这不仅体现在技术层面结果导向或过程导向的定义争执,更体现在治理层面将其视为产品、过程还是主体对象的范围分歧。其次,已有方案未能就“人工智能伦理”以及“伦理风险”的内涵形成共识。如果说“安全风险”主要与技术安全或产品安全相关并已经有较为充分的讨论,相比之下“伦理风险”则存在诸多不同解释,这既是源于不同社会文化环境对于“伦理”的定义不同,也源于能否及如何在人工智能研发过程中嵌入伦理要求的实现路径的差异。最后,针对更为具体的风险治理要求,不同利益相关体存在不同理解。例如,“可解释性”是大多数准则规范都包含的风险治理要求,但究竟是在源代码、算法模型、训练数据、应用逻辑等何种层面的“可解释”,以及按照何种标准的“可解释”,都存在诸多分歧(沈伟伟,2019)。上述争议既意味着当前人工智能业态的不成熟,也意味着我们对于人工智能伦理问题与安全风险治理进程所应秉持的开放性、动态性态度。
第二,当前提出的人工智能伦理问题与安全风险治理原则在内容上存在缺失或争议。已有研究的比较性、统计性分析表明,当前提出的大部分准则规范都注意到了透明度、歧视与公平、隐私保护、责任、自由与自治、安全可靠、促进为善、社会保障 等方面的风险治理原则,但同时在可持续发展、人机关系、特定领域的限制应用、研究者多元化和中立性要求等方面存在缺失。同时,源于不同利益相关体的分散工作,不同准则规范之间的冲突性和矛盾性日益凸显。例如,普惠发展与隐私保护的内在张力、安全可靠与非歧视要求的冲突,以及准确率、召回率等不同技术指标体现出来的不同公平原则的权衡取舍,都是典型案例(Corbett-Davies et al. , 2017)。导致内容缺失或争议的根本原因在于人工智能伦理问题与安全风险全球治理机制的不成熟,这既包括组织层面协同治理机构的不足,也包括统一的、具有较强共识性的有效性评估体系、标准体系的缺失。
第三,提出并形成人工智能伦理问题与安全风险治理原则的决策过程不够开放、民主,并可能因此导致结果出现偏差和片面性。这方面的批评首先集中于对“软 体系”作用及其动机的质疑。相关的控制实验研究表明,现有的准则规范并不能影响利益相关体在参与人工智能开发和应用过程中的合规行为( McNamara et al. , 2018)。更直接的批评者指出,考虑到相当多的准则规范是由私人部门所提出,其在事实上可能作为抵制政府强监管的借口而流于形式(Benkler,2019)。同时,考虑到 起草过程的非开放性,主要体现技术专家理念的准则规范既可能忽略对于现实问题的关注(例如更关注强人工智能的问题,却忽略当前已经普及应用的场景性人工智能风险),也可能因为技术专家团体的男性主导结构而体现出较强的性别差异(例如更偏好理性化、计算化、逻辑化解决方案,却忽略了对于同理心、同情心、情感伦理的重视)
No.5 中国实践: 多方并行的努力及《指引》的主要内容
人工智能伦理问题与安全风险治理的进展和反思展现了该领域的全球图景。我国作为人工智能发展和应用大国,同样将人工智能的治理体系建设置于头等重要的位置,并初步形成了一定框架。相比于全球私人部门、社会组织等非政府团体的积极参与,我国更多体现了政府推动下的协商与建设过程。①
① 我国企业的代表性参与行为包括腾讯发布《智能时代的技术伦理观——重塑数字社会的信任》,百度参与 Partnership on AI 等。
2017 年,以国务院名义发布的《新一代人工智能发展规划》 (简称《规划》)提出了我国推进、形成人工智能法律法规、伦理规范和政策体系的基本要求和时间路线 图。在《规划》要求的指导下,相关工作可被概括为沿着三个方向的并行努力。第一,针对我国人工智能的发展现状和需求,同时结合国际社会的相关讨论与共识,提出基于我国国情的人工智能伦理问题与安全风险治理准则规范,对内指导利益相关方的研发、应用行为,对外体现我国推进人工智能治理的主张并参与全球治理进程。2019 年 6 月,国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原 则——发展负责任的人工智能》 (简称《负责任的人工智能》)即典型体现。除此之外,北京智源人工智能研究院发布的《人工智能北京共识》,以及腾讯公司提出的面向人工智能的技术伦理观,都可被视为我国不同利益相关方在此领域的努力与贡献。第二,聚焦于人工智能伦理问题与安全风险治理的具体问题,形成具有规范意义的技术标准。这又集中体现于 2020 年国家标准化管理委员会联合四部门共同出台的《国家新一代人工智能标准体系建设指南》,其中明确了伦理安全标准的重要地位,并就概念术语、数据算法、系统服务、测试评估等人工智能研发应用关键环节的标准建设工作做出了重点部署。第三,针对具体领域的人工智能应用问题,相关部门开始起草具有强制约束力的法律法规或政策文件,例如,国家互联网信息办公室出台的《数据安全管理办法(征求意见稿)》《网络信息内容生态治理规定》,以及更为具体的《常见类型移动互联网应用程序(App)必要个人信息范围(征求意见稿)》 等文件,均对特定领域人工智能的应用划定了边界。
在上述三个方向所构成的整体图景中,2021 年年初由信安标委正式发布的《指引》可被视为具有承上启下作用的重要文本,其既是对于《负责任的人工智能》原则的发展与细化,同时也为进一步制定人工智能伦理问题与安全风险治理标准准备了条件。就其内容而言,《指引》主要对三个问题做出了回答:对谁提出规范性要求?为什么提出要求? 要求什么。
首先,《指引》遵循人工智能研发和应用生命周期的逻辑,将研究开发者、设计制造者、部署应用者以及用户都纳入了行为规范范畴。研究开发涵盖人工智能理论发展、技术创新、数据归集、算法迭代等相关工作,设计制造是指利用人工智能技术形成具有特定功能、满足特定需求的系统、产品或服务,部署应用则涉及具体工作生活场景的采纳与使用。
其次,《指引》从失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险五个方面具体总结了人工智能伦理问题与安全风险的类型和当前关注点,明确了规 范的对象。失控性风险是指人工智能的行为与影响超出利益相关方所预设、理解、可控的范围且带来负面效果的风险。既有的其他准则规范多以此指代强人工智能的发展风险,但《指引》并未局限于此。事实上,即使是当前人工智能的技术发展水平,其应用过程也可能存在失控风险。社会性风险是指因人工智能的误用、滥用而对社会价值理念造成负面影响,“信息茧房”便是典型体现,其不一定会表现为对具体权利的侵害,但却可能在长期的潜移默化中影响人类社会的价值理念。侵权性风险涉及人工智能对人的基本权利的影响,自动驾驶汽车事故中的人身伤害、人脸识别对于隐私的侵犯、人工智能作品的版权争议都属此类。歧视性风险聚焦于人工智能对于特定群体的主观或客观偏见,并造成了权利侵害或负面影响的结果,这又尤其与当前主流人工智能技术路径极度依赖大数据的特性相关。责任性风险关心人工智能造成负面影响后的责任界定难题,其会影响人工智能发展过程中社会变革成本的公平承担及社会信任等相关问题。
最后,在提出一般性适用的基本要求的基础上,针对不同利益相关方在不同种类风险治理中的角色定位,《指引》明确了其差异化的行为规范要求,初步体现了敏捷治理的原则和精神。《指引》总结了六条基本要求,既涵盖积极正面的引导性要求 (例如人工智能发展应以推动经济、社会、生态可持续发展为目标),也包括底线原则 式的价值考量(例如应尊重并保护个人基本权利、在合理范围内开展相关活动等)。就不同利益相关方而言,出于鼓励创新及其风险影响程度和范围有限的考虑,《指引》对于研究开发者较少提出限制性要求,而更多体现为鼓励性、引导性目标(例如应不断提升人工智能的可解释性、可控性);相比之下,设计制造者和部署应用者则面临更多的限制性条款。设计制造者被要求设置应急处置机制、事故处理流程、事故信息回溯机制、救济保障机制等,而部署应用者同时还被要求为用户提供非人工智能的替代选择方案,并建立用户投诉、质疑、返回机制。特别的,对于部署应用者而言,不同领域的风险敏感性存在较大差异,因此《指引》总结了两类特殊场景,并提出了相应规范,这又具体包括将人工智能作为直接决策依据并影响个人权利的场景,以及公共服务、金融服务、健康卫生、福利教育等公民必需的基础性领域。尽管用户并非重点规范对象,但考虑到其在合理使用、风险反馈等方面也具有重要作用, 《指引》对这一群体也提出了相应要求。
需要注意的是,虽然《指引》在中国人工智能治理场域下具有重要作用,但结合第四部分中关于全球比较与反思的内容不难发现,其仍然存在若干局限。具体而言,《指引》仍然未对“人工智能伦理”等关键概念做出明确界定,也未覆盖所有的人工智能伦理问题与安全风险(例如人工智能在一些特殊领域的应用风险),同时也未对不同场景下不同人工智能应用提出更细致化的差异要求(例如在不同场景下人工智能的可解释性要求标准应不同)。就起草过程而言,《指引》按照惯例向社会公开征求了两周意见,但并未在全社会引发围绕人工智能治理的充分讨论,这也限制了各方意见的全面表达。上述不足既与《指引》的文件定位有关,也与人工智能伦理问 题和安全风险治理的系统性、复杂性有关,可以说,很难通过一份文件“毕其功于一役”。尽管如此,作为引导各方参与人工智能伦理问题与安全风险治理的指引性文 件,《指引》起到了细化宏观理念原则的具体内涵,以及指导未来进一步制定标准规范的衔接作用,同时也体现了我国在该领域的积极、开放的态度,有利于未来我国参与人工智能伦理问题与安全风险治理的全球对话进程。
No.6 讨论与结论: 人工智能治理的未来展望
《指引》的出台是我国人工智能治理进程中的重要节点,本文以此为契机展开的学理分析和内容解读,并不致力于给出具体的政策建议或治理原则,而是试图为理解利益相关方推动人工智能伦理问题与安全风险治理进程提供整体图景,并对我国近年来的发展成果和思路提供解释与分析。由此我们也不难发现,尽管各方在核心概念和基础原则方面形成了一定程度的全球共识,但考虑到仍然存在的争议、遗漏与协同机制的缺口,要想针对人工智能伦理问题与安全风险问题提出通用性、一般性的治理准则或规范,仍然还有很长的路要走。不过这也并不意味着短期内我们无法实现对于人工智能伦理问题与安全风险的有效治理。结合人工智能全球治理进程的具体发展情况,我们判断未来改革将呈现三个方面的趋势。
第一,虽然具有全球共识性、约束力的人工智能伦理问题与安全风险治理原则难以在短期内出台,但在“可信赖的人工智能”“负责任的人工智能”等核心概念上, 各方可能达成一致。这既源于 G20、经合组织等重要国际组织的推动,也体现了重要国家在该领域的意见和态度。第二,尽管人工智能全球治理体系在短期内难以成熟,但具有较高共识度的人工智能伦理问题与安全风险评估框架、标准体系等中微观层面的全球治理机制可能加速形成,这既是源于实践发展的政策“倒逼”需要,也得益于专业组织、学术团体在此方面的丰富工作。第三,考虑到人工智能发展应用进程及风险涌现的紧迫程度,当前侧重“软体系”的治理规范可能逐渐向更具约束力的“硬法体系”转移,尤其是针对具体领域的人工智能应用可能会形成较为明确的治理规则。对于我国而言,在《规划》要求的指导下,人工智能伦理问题与安全风险治理进程必将进一步加速;更多利益相关体的加入与协同也将成为常态,进而共同推动人工智能合规体系的建设与完善。
来源:《公共管理评论》