基金项目:2022年江苏省研究生科研创新计划项目(KYCX22_1381);安徽省教育厅科学研究项目资助(2023AH050124)作者简介:吕雯瑜(1992—),女,陕西兴平人,南京师范大学公共管理学院博士研究生,主要从事科技伦理学研究;
曹康康(
1990—),男,安徽怀宁人,安徽师范大学马克思主义学院讲师,博士,主要从事应用伦理学研究。2023 12
No 12,2023
学 术 探 索
AcademicExploration2023年12月
Dec.,2023
走向道德人工智能(AI)
———赋予人工智能系统道德人格和构建可解释人工智能
吕雯瑜1,曹康康2
(1 南京师范大学 公共管理学院,江苏 南京 210023;2 安徽师范大学 马克思主义学院,安徽 芜湖 241002)
摘要:走向道德AI(artificialintelligence)包含两层内涵:一是赋予人工智能系统(systemsofartificialintelligence,SAI)道德人格,二是构建可解释人工智能(explainableartificialintelligence,XAI)。赋予SAI道德人格是将人的道德价值观嵌入AI系统中,使其在决策过程中能够遵循这些准则。构建XAI即形成可解释AI,促使AI的决策更加透明和可解释。赋予SAI道德人格和构建XAI共同为道德AI的生成奠定基础。然而,走向道德AI在现实中仍然面临诸多的挑战。一方面,目前关于AI的解释方法仍然面临准确性和可理解性方面的问题;另一方面,人们对于是否赋予A
I道德人格也存在观点上的分歧。为此,可以通过代入道德编码、进行道德学习和迭代、构建可解释性模型等技术方法来克服走向道德AI的困境。关键词:人工智能;可解释性;道德人格;道德
中图分类号:B82-02 文献标识码:A 文章编号:1006-723X(2023)12-0024-11
一、问题的缘起
随着AI(artificialintelligence)技术在诸多行业中的应用,其所带来的伦理问题促使全球的法律和政策进行了相应的改变。2018年,欧盟出台了《通用数据保护条例》(
GDPR),目的是确保欧盟地区的数据隐私权得到保障。[1]
英国颁布《英
国A
I发展的计划、能力与志向》,其中明确强调了数据伦理和保护数据隐私的重要性。
[2]
而在北美,加拿大出台的《泛加拿大AI战略》,确保AI
的应用都是在遵循伦理原则的前提下进行。[3]
这
些国际政策和法规,都在尝试确保AI的发展不仅在技术上取得进步,更要在伦理和道德上与时俱进。
道德AI是指AI的算法、架构和接口都符合伦理准则,如确保透明度、维护公正、承担责任等。之所以要走向道德AI,其背后有三大驱动因素:一是对社会责任的回应,二是技术演进的逻辑延伸,三是道德规范的内在需求。首先,对社
会责任的回应。随着A
I技术的广泛应用,人们面临着一个被称为“责任差距”的新问题。这个问题是指当负面事件发生时,人们很难甚至无法将道德责任归属某一方。这个责任差距不仅限于技术层面,还涉及伦理和社会等诸多层面。为此,需要构建一个与人类价值观和能力相协调的技术系统,确保AI在人类的掌控中,并保障其行动是有目的和可以预见的。这意味着AI的标准不仅仅局限于技术性质,更应在伦理维度上得到
认可,以达到人与机器的和谐共生。[4]
其次,技术
演进的逻辑延伸。从技术发展的内在规律来看,AI技术的发展目标是通过算法模拟并最终超越
人类智能。[5]
人类智能并非仅仅基于逻辑或数学
推理,而是基于复杂的情感、判断和道德等综合能力。为了真正模拟并超越人类智能,AI不仅要在计算能力上进行优化,还要深入探索情感和道
德的本质。[6]这表明,未来AI的研究应该更深入
地探讨人类的伦理观念。最后,道德规范的内在需求。走向道德A
I是对道德规范内在需求的回
应,它揭示了社会共识和契约在技术进步中的核心地位。道德规范,作为社会共识和契约的产物,蕴含着人类理性自治的内核价值。在AI的发展过程中,不仅需要遵守法律和外在规范,更要将道德规范的内在精神连接到AI系统的设计和应用中,最终将其内化为AI系统的目标函数和限制条件。这种内化不仅仅是对道德规范发展的回应,也是对理性主体的尊重,它为构建更为公正、透明和可信赖的AI系统提供了道德基础。
二、走向道德AI的双重维度:
道德人格与可解释性
走向道德AI包含两个方面:一是赋予SAI(systemsofartificialinte
lligence)道德人格,二是构建XAI(explainableartificialintelligence)。赋予SAI道德人格和构建XAI是两个相对独立但互补的研究领域。这种互补关系可以共同推动AI朝着更加道德的方向发展。这一方法被称为“走向道德AI”。
(一)赋予SAI道德人格:认知、自主与共生
在许多特定领域,如诊断和预测,AI系统已经证明其比人类专家更加精确和客观。[7]这种高效的表现很大程度上归因于统计方法的准确性,这使得它们超越了单纯的人类判断。[8]因此,人们越来越倾向于信赖并接受AI的决策。然而,随着AI的能力增强,人们也需要兼顾AI的道德考量。正如美国认知领域专家罗莎琳德·皮卡德(R W Picard)所说:“一个机器越自由,则它就越需要道德标准”。[9]
在西方的科幻哲学中,一些思考家预言,随着人类对其智能的强化,人类将逐渐与机器结合,形成一种生物与非生物的混合体,被称为“赛博格”(Cyborg)。这种赛博格是生物与机器的融合,其道德行为也可能受到AI决策属性的影响。这意味着决策不再完全取决于人类的意志,AI的伦理属性也被纳入其中。进一步地,如果AI被赋予了足够的自主性和伦理判断能力,它可能会在特定的伦理框架内进行选择。若仅仅将机器行为解释为“遵从人的指令”,并把错误归咎于设计者,就会如乔姆斯基所言,人类可能会忽略AI所展现的道德缺失,如淡漠、逃避等行为。[10]当技术能够独立执行任务时,
人类需要反思“以人为中心”的观念,并考虑赋予AI某种道德认知。这进一步强调了为何人类应该考虑扩大道德主体的定义范围。当代社会需要坚持将道德主体地位平等地向所有符合资格的实体开放,这不仅包括人类,还包括那些具有道德判断力的AI实体。这意味着,人类不应排除未来某些合格的AI实体被视为道德主体的可能性。[11]赋予SAI道德人格的初衷是期望AI能够成为一个具备道德责任和情感认知的道德主体。对此,多位学者提供了见解。法国认知心理学家德哈纳(Dehaene)坚信计算机未来将能够模拟大脑。[12]这不仅说明机器人有望具备人类意识和感情,而且预示着它们可能获得某种道德地位。意大利法学专家诺维利(Novelli)更进一步地强调AI已经具有自主决策的能力,不再只是机械地执行人类用户或设计师预先设定的任务。[13]这些观点与美国动物权利律师史蒂文·怀斯(StevenWise)的论断相呼应。他指出,非人类动物有时会被赋予某种权利,原因在于它们具有与人类相似的推理和“实践自主权”属性。[14]既然某些AI也显示出了这些属性,甚至可能更为显著,为什么不考虑为其赋予相应的权利呢?美国机器伦理学专家冈克尔(Gunkel)进一步补充,机器人的形态和功能正日益逼近人类,它们所展现出的自主性和意识与人类有着惊人的相似性。[15]英国伦理学家阿什拉菲安(Ashrafian)也持同样观点,他认为AI和机器人领域的持续创新使得计算机展现出了与人类相似的意识、感知和理性。[16]帕特里克·哈伯德(Patrick·Hubbard)对赋予SAI人格特质提出了一些具体的标准:首先,这个实体应该有与环境互动并进行复杂思考和交流的能力;其次,它需要有自我意识,并能为自己制定并执行生活计划;最后,这个实体应该具备在社区中与他人共存的能力。这些标准在某种程度上定义了赋予S
AI道德人格的最低要求,帮助人们明确AI获得人格特质的精确边界。AI专家卡普兰(J.Kap lan)也曾提到:“只要合成智能能够感知其环境中与道德有关的事物,并具备选择行为的能力,它就满足了作为一个道德实体的条件”。[17]
(二)构建XAI:理解、信任与透明
仅仅赋予SAI道德人格这一做法并不足以确保AI的行为总是与人类的道德观念一致。人们还需要AI对外具有可解释性。美国计算机科学家Doshi-Velez(多什-韦勒兹)强调了AI输出信息应以人类能理解的方式展现,无论是通过
自然语言、逻辑规则还是其他形式。[18]构建XAI的核心不仅在于增强解释的能力,更在于如何提高用户的信任度和确保AI的决策过程更加透明。
AI的可解释性可以从三个方面来阐述,即为什么解释?向谁解释?怎么解释?(1)为什么解释?早期的研究表明,可解释AI可以被人们理解。然而,算法运作机制犹如一个黑箱,其内部运行原理对使用者而言是未知的。如果人们不了解机器的运算方式,就难以确保它们在实践中的成功性。如果不成功,将可能导致严重的后果。人们因为无法对其进行检查,就不能确保它们不会产生歧视。对于那些无法解释内部运作的算法,也将无法使人类产生对世界的解释。[19]因此,只有实现算法的可解释性,才能促使其具有合理性或非歧视性。(2)向谁解释?为了保证AI决策的透明性,要根据不同的
目标人来调整解释的焦点。AI决策涉及的受众体包括:一是业务用户。AI的决策过程对于业务用户至关重要,他们需要了解其原理来优化自己的商业策略。二是监管机构。监管机构需要验证AI的决策是否遵守相关法规和标准。三是公众。公众需要了解AI的决策对他们的影响。第四,AI研究者和专家。AI研究者和专家需要了解AI的内部工作原理,以评估AI的性能。(3)怎么解释?为了提高AI的解释能力,学者们已经探索了各种方法。一些人使用诸如规则、决策树和线性模型这样更直接的模型。另一些则选择用可视化工具展示AI的决策过程。还有研究者试图通过对AI学习内容的语义研究,来探寻其决策的根本动因。
(三)赋予SAI道德人格和构建XAI的关联及共同作用
赋予SAI道德人格特质和构建XAI相互依存,为实现道德AI提供双重保障。当探讨SAI的道德人格特质时,实际上是在探究机器的“伦理认知”。这种“伦理认知”能在处理数据和执行任务的过程中,集纳并遵循人类社会的道德标准。道德人格特质并非简单的算法指令,它涉及深层次的价值判断和权衡。对AI而言,它必须能够识别并解决各种伦理挑战,从而做出与人的道德价值观相符的选择。而为了确保这种决策符合人们的预期,需要对其内部逻辑进行审查,这就是XAI的角。XAI的核心目的是为AI的决策提供一个逻辑清晰、可跟踪的解释路径。当AI做出某个决策或行动时,其可解释性能向人们阐明为何采取这种方式,并展示其是如何在伦理层面上进行权衡和思考的。这种可解释性是建立人类对AI信任的基石,而信任是任何伦理系统的基础。[20]
从“内在质量”和“外部监督”两个角度也能够理解赋予SAI道德人格和构建XAI的关系。从“内在质量”这一角度出发,赋予SAI道德人格意味着为其提供一套明确的伦理指南。这一目标无疑是走向智能系统伦理设计的前沿。过去的机器学习模型往往被编程为按照预定规则执行,其行为模式较为机械、固定。然而,随着技术的进步,人们期待AI不仅能够遵循既定的指令,而且能在复杂、多变的环境中展现出某种道德直觉或判断力。这样的期待来源于对人类道德心理的深入理解。人类的道德决策往往基于一系列复杂的认知和情感因素,如同理心、公正和权责观念。这些因素在特定的文化和社会背景中被塑造,并与每个人的经验和知识相互作用。因此,要使AI具备这样的能力,人类首先需要构建一个全面而深入的道德框架,将这些原则和价值观映射到算法中。但是,即使人们成功地为SAI赋予了道德人格,并且SAI能够按照我们所期望的方式进行决策,仍然存在一个重要问题:这些决策是否为用户所接受和理解?这引导我们进入“外部监督”这一维度。从“外部监督”的角度出发,构建XAI的作用尤为关键。如果用户不明白机器的决策逻辑,即使这个决策符合道德标准,也可能对其失去信任。[21]在很多应用场景中,尤其是涉及人类生命安全和社会正义的领域,决策的透明性和可解释性变得尤为重要。同时,构建XAI还可以作为一个工具来检验和校正AI的决策。当机器的决策逻辑是明确和可解释的,人们就可以更容易地发现其潜在的偏见和错误。例如,当可解释AI工具揭示出一个决策是基于某些不应被考虑的特征(如种族、性别等)时,人们就能够明确知道该模型存在的偏见。进而,研究者可以通过技术手段,如正则化或重新训练,来纠正这种偏见。
总之,只有当SAI与XAI的理念紧密融合时,人们才能期待AI在复杂的情境中作出符合道德规范的决策。为了实现这一目标,AI的研究与实践必须走向双重方向:一是加深对AI伦理
的理解,确保其做出的决策不仅在技术上领先,还要在道德上符合标准;二是需要保证AI的决策过程公开且透明,这意味着其决策逻辑和原理对使用者来说是可解释且可理解的。这样的结合将为构建一个人机和谐共生的未来打下坚实的基础,确保机器在道德和伦理方面能够与人类产生真实的共鸣与交流。
三、走向道德AI的困境:
技术超前与伦理滞后
在技术与道德的交叉点上,人们常常面临一个困境:技术的飞速发展往往超越了人类伦理和道德的反思速度。AI作为当前技术革命的前沿,尤其凸显了这一点。当AI开始涉足决策、识别和自主行为时,人们必须审视:AI应该如何反映人类的伦理价值观?走向道德AI面临着哪些难题?
(一)超越技术之境:探索赋予SAI道德人格的挑战
在本质上,AI仍然是一种技术工具。将道德人格赋予SAI实际上是在技术层面上赋予其自主性。赋予SAI道德人格是一项极具挑战性的任务,需要解决多个问题,包括社会认可、伦理原则、应用范围和技术实施等问题。
第一,在社会认可方面,人们对于是否应赋予SAI道德人格存在不同的观点。首先,强人工智能观点主张,AI有可能达到或超越人类的意识水平,并应被赋予道德人格。弱人工智能观点则认为AI只是一个工具,缺乏真正的主观意识和道德责任。无论从现有技术还是从未来展望看,AI难以拥有像人类这样的道德主体所需要的实践理性和自由意志。[22]同时,AI主体的行为仍然受到外部编程的命令,使得确定道德责任仍然具有挑战性,特别是在不可预测的情境下。这种复杂性也降低了人们对AI的信任。[23]中立立场认为,尽管AI可以展现出一定的智能,但目前的技术水平还远未达到赋予其道德人格的程度。许多人认为,现在的智能体并没有真正完整的心智,因此不能负道德责任。即使它们拥有意识和道德感觉,但由于缺少体验痛苦和惩罚的能力,如何能够对其负责呢?[24]
第二,在伦理原则的应用方面,目前没有一个通用的伦理标准可以适用于所有的AI应用场景。由于文化、宗教和社会意识形态的多样性,构建一个涵盖所有国家、地区和民族的AI伦理原则颇为困难。当AI融入人类的伦理观念,它不可避免地会碰到价值冲突问题,它应该根据哪个国家、地区或民族的道德准则来设定?当不同的伦理价值观发生碰撞时,人类应如何权衡与选择?更核心的疑问是:这种做法是否恰当?谁有资格来做出这个决策?这实际上触及了权力的分配与行使。例如,以功利思想驱使的AI可能会为了大多数人的幸福而损害少数人的利益,而以德性伦理为指导的AI会更加关注品德和责任,而非仅仅是行为的后果。这种多元化的伦理理论导致在实际应用中难以形成统一的道德判断标准。同时,在伦理原则的探讨中,人们也经常遇到其内在的交织与重叠,导致理解和辨析上的挑战。例如,“
可预测性原则”与“透明性原则”很容易被混淆,而“可问责性原则”与“负责任原则”虽在描述上近似,但各自的关注点却不同。一些伦理原则更多地针对组织层面,而另一些则更为聚焦于技术方面,这种层次上的不同进一步加大了区分难度,并可能导致误导。[25]总之,伦理准则的内涵理解亦因不同文化和地域背景而存在差异。这种差异性不仅影响了伦理界定的范围,而且也表现在技术标准的不统一、风险评估的方法和策略以及制度规范的执行力度上。
正则化的具体做法第三,在应用范围方面,AI的设计和使用目的将会对人类生活产生重大影响。如果AI被用于军事目的或其他可能引发伦理争议的领域,那么赋予其道德人格将面临更大的挑战。这是因为,当AI被赋予决策权时,其决策可能会导致人类伤亡或其他的严重后果。尽管AI技术的快速发展有可能从多个方面改变国家的战争方式,但AI革命带来的新形势的风险必须与军事功能中算法系统的广泛整合相协调。人类不能盲目地依赖AI,而是需要在其应用中进行严格的风险评估和管理。美国学者埃斯迈尔扎德(Esmaeilza deh)的研究显示,技术、伦理(信任因素)和监管问题对使用AI应用程序的风险感知产生了显著影响。[26]这表明,人们仍需加强对AI的监督。瑞典伦理与生命伦理中心学者米歇尔·法里斯科(MicheleFarisco)等人进一步提到,人类应该在考虑AI在某些特定人类活动中的角时保持谨慎,因为尽管存在智能,但缺乏道德相关的特性。[27]人类不能简单地将AI视为一个工具,而是需要认识到它是一个复杂的系统。
第四,在技术实施方面,赋予SAI道德人格面临诸多的技术难题。首先,因为没有统一的道德理论框
架,使得赋予SAI道德人格的标准变得困难。[28]伦理模型的多样性和复杂性导致在为AI制定道德标准时的困惑。有些伦理观点侧重于强调个人的权益和职责,而其他理论则更关注整体的福祉和效益。[29]因此,确定哪一种道德理论模型最适合AI是一个巨大的挑战。其次,AI的自主性与灵活性的界限并不明确,这容易导致与人类期望发生偏离。AI的自主性是指其能够独立地进行决策和行动,而灵活性则是指其能够适应不同的环境和任务。然而,过度的自主性可能会导致AI做出与人类价值观不符的决策,而灵活性过高则可能导致AI的行为难以预测。因此,如何平衡AI的自主性和灵活性,使其既能满足任务需求,又不偏离人类的期望,是一个亟待解决的问题。最后,尽管AI的决策需要解释与验证,但其内部的复杂性增加了实施难度。深度学习和神经网络等先进的AI技术往往具有高度的复杂性,这使得其决策过程难以解释。此外,由于AI的决策过程是基于大量的数据和算法的,因此验证其决策的正确性和合理性也是一大挑战。[30]
(二)构建XAI的挑战:模型复杂性、数据不确定性与解释权衡
构建XAI无疑在提高模型的透明度和可信度上具有不可估量的价值。然而,在实施过程中,常常面临多种挑战,如深度学习模型的复杂性、数据的不确定性、解释性与准确性之间的权衡等。这些困难涉及从模型结构到实践应用的各个层面。
首先,深度学习模型的复杂度成为一个主要的挑战。由于深度学习模型通常包含大量参数和层级,这种
密集连接和深度堆叠的特性导致其决策路径变得抽象。[31]尽管深度学习在多个领域中展现了出的表现,但模型的复杂化也让其工作原理越来越难以解读。这种复杂性的增加不仅来自模型的深度,还来自其宽度和参数的数量。一个典型的卷积神经网络(CNN)可能包含数百万甚至数十亿的参数。模型中的众多参数让其能够捕捉数据的复杂性和非线性关系,但这也增加了解读其决策机制的难度。此外,深度学习模型的决策路径的抽象性也增加了其解释的难度。相较于传统诸如线性模型或决策树的方法,深度学习模型展现出的决策边界和特征呈现出更为复杂的非线性和高维特点。[32]这表示,哪怕人们能够获取模型的所有参数和中间状态,依然难以直接洞悉其决策逻辑。这种复杂性和抽象性带来的挑战不仅限于模型解释。它们还影响模型的鲁棒性、泛化能力和安全性。例如,深度学习模型容易遭受对抗性侵害,这些微小而几乎看不出的输入变化可能会使模型产生全然不同的预测。
其次,面临数据的不确定性。数据不确定性来源包括:数据收集过程中的误差,如测量工具不准确、数据收集者主观偏见或数据样本不完整;[33]数据本身内在属性,如时变性未被完全捕捉;数据处理和清洗过程中的不确定性,如数据插值、平滑或转换等。当这些不确定性存在时,构建XAI的过程中就可能出现多种问题。模型可能会过度拟合这些不确定的数据。过度拟合意味着模型对训练数据适应得很好,但对于新的、未知的数据则效果不理想。这是因为模型可能已经记住了训练数据中的噪声,而不是真正的数据模式。当模型试图解释其决策过程时,这种不确定性可能会被放大。这可能导致解释输出变得模糊和不准确,从而降低模型的可靠性。更为严重的是,这种不确定性可能会导致用户对模型的信
任度下降。数据的不确定性还可能导致技术能力的局限性。当数据中充斥着大量噪声时,高级模型,如深度学习模型,可能在这种数据环境中难以达到优秀的表现。这是因为这类模型依赖于大量的高质量数据来学习。此外,复杂的数据权限和公开政策可能会阻碍研究者和开发者的数据获取和使用。这不仅使得构建可解释的人工智能更为困难,还可能妨碍模型的广泛应用。在特定的应用场景,如水资源管理,对数据不确定性的精确评估变得至关重要。在这些场合,忽视不确定性可能导致误判和资源的不当使用。
最后,追求模型的可解释性往往需要在解释性和模型性能之间做出权衡。一些高性能的模型如卷积神经网络可能在精度上表现出,但它们的内部机制和参数对非专家来说难以理解。卷积神经网络(CNN)在深度学习中扮演了关键角,尤其在图像识别、声音处理和自然语言处理等方面展现出了出的性能。但随着模型的复杂度增加,其工作机制也变得更加难以解释。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论