摘 要

人工智能日新月异的发展,引发了越来越多人类未曾面临的新道德问题。这些问题不仅拓展了伦理探讨的边界,更是作为一种独特的道德研究之镜,照见了传统道德研究中难以触及的深层结构与机制:人工智能伦理信息体发育的研究,可以照见道德主体发育的自主性发生机制;人工智能道德地位的研究,可以照见道德主体地位和道德对象地位的一体化更高整体层次研究构架;而人工智能道德信息体与道德对象的研究,则可以照见道德主体和道德对象的具体关系性质,由此可以进一步窥见,道德主体发育和道德地位问题以及道德主体与道德对象之间构成的双向循环机制。

作者简介

宗爱东,上海市教育科学研究院研究员

本文载于《社会科学》2025年第10期

目 录

一、从人工智能看道德主体的发育

二、从人工智能看道德地位问题

三、从人工智能看道德主体与道德对象的关系

结 语

人工智能的发展为道德研究提供了一面镜子,很多道德问题都可以在这面镜子的观照中得以深化思考。其中,道德主体性问题最为典型,其不仅涉及道德主体的发育和道德地位的确认,而且在更深层意义上触及了道德主体与道德对象的关系问题。随着智能算法的演进,其道德主体发育、道德地位确立以及道德主体与道德对象的关系等引发的相应问题,既为道德主体性研究提供了前所未有的机遇,也对现有伦理观念构成了日益严峻的挑战,从而成为推进该领域研究的重要动力。

一、从人工智能看道德主体的发育

人工智能的伦理问题研究,为道德主体发育机制研究提供了重要条件,为在更基础层次上探索道德主体的发育过程开辟了路径。在当前语境下,一个程序即可被视为信息体(agent),但“主体”通常特指人类,因此,道德信息体(moral agent)不能被理解为道德主体(moral subject),反之亦然。然而人工智能的发展凸显出这一概念区分所带来的理论张力,恰恰为道德主体研究提供了一个更宽广的构架和基础。信息体具有主动性甚至能动性,是比主体更基础的主动体甚至行动者。作为人类的创造物,人工智能的发展在更基础的层次上呈现了道德主体发育的细节,进而推动相关研究日益系统化。

在人工智能伦理信息体发育研究中,国际伦理与信息技术学会主席詹姆士·摩尔(James H. Moor)的集大成研究最具系统性和代表性。在学界对智能算法还没有深入研究的情况下,摩尔就已经率先开始探索人工智能伦理信息体的发展。他关于人工智能体伦理发育机制的理解,系统地展示了人类在自然进化中不可能看到的具体过程。关于人工智能伦理信息体的发育,摩尔将其划分为四个阶段。

第一阶段是“伦理影响信息体”(ethical-impact agents)。对于该阶段的伦理信息体,我们“不仅可以从设计规范层面(也就是说,它是否做好了适当的工作),而且可以从道德规范层面对其技术进行评估”。第二阶段是“隐性伦理信息体”(implicit ethical agents)。如果想把道德植入机器,方法之一是限制机器的行为以避免不道德的结果。在这个意义上,我们“可以通过创建隐性支持道德行为的软件来满足机器道德规范,而不是编写包含明确道德准则的代码。机器行为符合道德是因为它的内部功能隐含地促进了道德行为——或者至少避免了不道德的行为。道德行为是机器的本性。它在一定程度上具有美德”。第三阶段是“显性伦理信息体”(explicit ethical agents)。一个显性伦理信息体在处理不可预测事件的现实生活情景中是自主的。在这种情况下,伦理在机器中显性存在,机器不仅能表征道德范畴并对其进行分析,甚至可以像电脑下棋那样“做”伦理。第四阶段是“完全伦理信息体”(full ethical agents)。这种完全意义上的机器伦理信息体能够做出明确的道德判断,并且有能力为决策提供合理的论证。

摩尔关于人工智能伦理信息体发育阶段的划分,可以被进一步概括为两个基本层次:前两阶段(伦理影响信息体与隐性伦理信息体)属于初级层次,体现了设计者主导的被动伦理;后两阶段(显性伦理信息体与完全伦理信息体)属于高级层次,展现了算法的自主伦理能力。

“伦理影响信息体”阶段属于工具性的智能体发育阶段。此时,智能算法刚刚起步,严格地说还不能算是真正具有自主性的智能体,其伦理属性只是设计者某些属性加载的结果,智能体只是在行为中表现出一定的伦理效应。这是人工智能伦理信息体发育不同于人类道德主体的重要性质,可以为人类道德主体发育研究提供具有重要参考价值的技术进化环节。“隐性伦理信息体”阶段属于智能机器的有意识伦理人为内置阶段,智能算法的发展还处在设计者意图的智能执行水平,智能机器行为体现了设计者通过内置赋予的伦理标准。这两个发展阶段构成人工智能伦理信息体发育的初级层次。尽管从“伦理影响信息体”到“隐性伦理信息体”的发展,尚不涉及道德主体性争议,但这一发展过程对于道德主体性问题研究的意义则既明显又丰富。尤其是那些不能以人类等高等动物为研究对象进行研究的道德主体性机制难题,该发展过程提供了一个独特的实验场,不仅为道德主体性问题的研究弥补了重要不足,而且为整个问题的研究提供了诸多启示。

“显性伦理信息体”阶段,标志着智能算法开始具备一定的自主性,并展现出一定程度的道德主体性。这是在人工智能技术进化过程中出现的重要发展阶段,不仅在人工智能伦理信息体发育中具有转折点意义,也对一般道德主体性研究具有填补空白的意义:它提供了以非生命体为对象、探究道德主体性问题的研究场域。而“完全伦理信息体”阶段,则出现了与人类基本对等的人工智能伦理信息体。在此阶段,智能算法具有了完全意义上的自主性,已经可以自主进化。显然,这里不仅仅是关于人工智能传统伦理的讨论,而且是伦理问题和通用人工智能的一体化研究,上升到了在伦理层面讨论智能算法是不是可能达到类人智能水平的问题。

“完全伦理信息体”阶段意味着已经出现具有与人类一样伦理属性的智能机器,有关机器伦理的观点分歧也正是发生在这里。在摩尔看来,“一个普通的成年人是一个完全的道德主体。我们通常认为人类具有意识、意向性和自由意志”。但是一台机器能不能成为一个完全伦理主体,则是关于机器伦理争论最为激烈的问题。许多人认为,目前机器伦理学的研究范畴与一个完全伦理主体之间存在着一条明显的界线。对他们来说,机器不能越过这条线。这条明显的界线标志着人类与未来机器在本体论上的重大区别。关于这一明显的界线是什么,有两种代表性观点,它们构成了人工智能永远不可能成为道德主体的论证基础。一种观点认为只有完全伦理主体才能成为道德主体。另一种观点认为机器不能成为一个完全伦理主体——也就是说,机器不可能有意识、意向性和自由意志。对智能算法发展可能性的伦理讨论,看上去比人工智能是否发展到类人智能水平的讨论更超前,但从伦理作为一个维度在智能中一体化存在和发展的层次看,二者应当可以看作是同一层次的问题,可以视同人工智能发展是否能达到类人水平,与其道德主体发育构成了一体化的更高层次讨论。这不仅属于人工智能伦理研究,也属于人工智能通用化研究,它们的共同基础研究是智能算法。

显然,在智能算法层次,伦理具有特殊地位并特别复杂,因而关于伦理与机器智能体的关系也具有不同的理解。“有些人可能会说,机器伦理显然存在,因为人类是机器,人类有道德。其他人可能会说,机器伦理显然不存在,因为伦理只是情感表达,机器没有情感。”无论以人类是机器论证存在机器伦理,还是以机器无情感否定机器伦理的可能性,都是基于机器和人类的传统理解。

目前,机器和人类仍然是完全不同层次的存在,如果局限于传统理解来讨论二者的伦理关系,就会不可避免地限制二者间的张力。作为道德主体性问题研究的对象,人工智能的根本特性在于智能算法,这恰是研究的突破口,从而将人工智能伦理问题的讨论提升至机器和人类都作为智能体的层面。人工智能伦理问题是更具整体性的研究,必须在更高的整体性层次面对智能算法发展带来的问题,甚至需要在人机融合进化的层次把机器智能纳入社会化过程。这不仅是人工智能本身发展的关键方向,而且是技术变革推动人类发展的重要方式。正因此,人工智能伦理问题与通用人工智能的一体化研究,不仅与人类发展密切相关,而且可以将道德主体性研究推向更高的整体性层次。

随着人工智能的发展,我们越来越清楚地看到,机器伦理研究揭示的核心价值,绝不仅仅是机器的人类类比,而在于智能算法演进中内含的伦理维度。该维度贯穿了算法发展的全过程:从设计者以价值观加载的方式使作为工具的专用人工智能成为具有伦理效应的信息体,到智能算法进入自主进化,从而成为具有类人道德地位和完全自主行为的通用人工智能。这一历程实质上从伦理维度展开了智能算法的发展进程:智能算法的发展层次超高,伦理维度越是衡量其发展水平的标准。这是一个智能算法自主性演进的过程。正是在智能算法层面,我们可以更深入地理解道德地位问题。

宗爱东|道德研究之镜:人工智能对道德主体性研究的启示

二、从人工智能看道德地位问题

人工智能的发展,日益凸显其道德地位问题。正如有学者指出的:“创造会思考的机器的可能性引发了一系列伦理问题,这些问题既涉及确保这些机器不会伤害人类和其他道德上相关的生物,也涉及这些机器本身的道德地位。”思考人工智能发展将面临的道德地位问题,不仅关乎人工智能和人类的伦理关系,涉及人类道德观念的变革,而且由于研究可以深入更基本层次,从而为道德地位问题的研究打开了新的空间。

人工智能道德地位的研究,凸显了道德主体地位和道德对象地位问题。相关研究扩展了基本概念,将“道德主体”从人类扩展到“智能体”(intelligent agent)甚至“信息体”(agent),进而明确了道德主体地位的前提。对人类和动物的研究表明,获得道德地位通常要求具备道德意识,而道德意识又以一般意识为前提。因此意识是道德主体地位的基本条件,不具有意识的智能体不可能发展出自我意识,没有自我意识,就不可能有道德意识。现阶段的人工智能还不具有意识,因此不具有道德主体地位。“人们普遍认为,目前的人工智能系统没有道德地位。我们可以改变、复制、终止、删除或者按照我们的意愿使用计算机程序,至少就程序本身而言是这样。我们在与当代人工智能系统打交道时所受的道德约束,都是基于我们对其他生命(例如我们人类同胞)的责任,而不是对系统本身的任何义务。”但人工智能的通用化甚至超级智能的发展前景却为道德主体地位问题提供了更广阔的研究空间。

在关于道德对象地位的研究中,知觉(sentience)向来被作为一个基本标准。“因为具有知觉能力的生物能够体验痛苦,而我们通常认为在没有正当理由的情况下施加痛苦是错误的。”在此基础上,畅销书《超级智能》的作者波斯特洛姆(Nick Bostrom)有更具体的研究,他认为,“通常有两个标准被认为与道德地位有重要联系:知觉和明智(sapience),二者或者单独存在,或者结合在一起”。知觉即现象经验或感受的能力,如感受疼痛和痛苦的能力;明智即与更高智能相关的能力,如自我意识和作为一个理性反应自主体。也就是说,具有道德地位的基本条件有两个层次:最低层次与知觉密切相关;最高层次则与明智联系在一起。这里,“二者或者单独存在,或者结合在一起”至为关键,它意味着道德主体地位和道德对象地位研究的一体化。只要具有知觉,就具有道德对象地位;如果发展到不仅具有意识,而且是明智的,那么就具有道德主体地位;而二者兼具,则既具有道德主体地位,又具有道德对象地位。

知觉作为具有道德对象地位的基本标准,存在两种不同的理解。玛丽·沃伦(Mary Anne Warren)辨析了这两种观点:一种理解认为知觉是唯一有效的道德地位标准,她称之为“唯知觉”观。这种观点主张,“知觉是(1)拥有任何道德地位的必要条件;也是(2)拥有完全和平等道德地位的充分条件”。这种知觉标准观意味着大多数脊椎动物可能还包括许多无脊椎动物,都具有道德平等地位。另一种观点认为“知觉并不是获得完全道德地位的充分条件”。这两种不同观点形成了一种张力,为人工智能道德地位研究的深入提供了新的条件。对此,波斯特洛姆提出了一个更高层次的框架:“X具有道德地位=因为X自身具有道德价值,为了它自己允许/不允许对它做什么。”这个框架不仅关乎道德对象地位问题,而且与道德主体地位和道德对象地位的一体化研究密切相关。

波斯特洛姆关于人工智能道德地位的研究,是在道德对象地位和道德主体地位一体化的层次展开的,对人类道德地位问题的研究有两方面重要启示:一方面,一个智能体只要具有知觉,就拥有道德对象地位的最低层次前提;另一方面,一个智能体即使具有意识,也未必具有完全的道德主体地位,甚至可以不具有道德对象地位。由此可以推出两个结论:一是道德对象地位的最低层次前提是具有知觉;二是道德主体地位和道德对象地位必须在彼此的具体关系中才能完全确定。正如波斯特洛姆所表明的:“一个人工智能系统如果具有一定的感受能力,比如感受痛苦的能力,它就会有一定的道德地位。一个有知觉的人工智能系统,即使它缺乏语言和其他更高的认知能力,也不像毛绒玩具或上了发条的洋娃娃,而是更像一个活的动物。给老鼠施加痛苦是错误的,除非有足够强大的理由这样做。这同样适用于任何有知觉的人工智能系统。如果一个人工智能系统除了有知觉之外,还具有类似于正常人的明智,那么它就具有相当于人类的完全道德地位。”波斯特洛姆的这段论述涉及了位于知觉和明智之间的各种情况。虽然仅有知觉并不能得出具有真正意义上道德主体的结论,但却可以作为道德对象的条件,因而是关于道德地位甚至道德研究的发生学前提。大语言模型的发展为此提供了新的思考进路。由于价值观对齐的区别,对于同一提示词,大语言模型会做出完全不同甚至相反的道德反应。这意味着,对于同一刺激,不同的信息体可以具有完全不同的感受。而就人类机体而言,也就是说虽然同一刺激所激起的生理反应基本相同,但具有不同观念的人得到的感受可以不同,甚至可以相反。由此我们可以得出进一步的结论,道德地位的具体层次取决于信息体或智能体,与其载体不存在根本关联。

由此可见,道德主体地位和道德对象地位并不是抽象的孤立存在,而需要在相互关系中确定,这意味着当作为对象的智能体是不同层次的人工智能时,对道德主体地位的研究就必须进一步深入和具体化。道德主体地位的形成是一个特定发展过程,它随着语境发展而不断显性化。例如,在棋类游戏的语境中,人工智能的道德主体地位可以近似地被理解为守规则;而要具有社会意义上的道德主体地位,则必须有相应社会范围的语境。这些结论只有在人工智能道德地位研究中才可能有意义,而且必须在道德主体地位和道德对象地位的一体化研究中进行深入探讨。由此也可以推出更进一步的结论:具有道德地位的更高层次前提不是拥有一般意义上的智能,甚至一般意识,而是必须发展到明智层次。与智能甚至一般意识不同,明智不仅意味着运用知识、经验、理解、常识和洞察力的能力,而且意味着懂事理,有远见,想得周到等社会性的类智能。道德主体地位意味着智能体具有更高层次的心理和社会需要,因此,作为道德主体地位的最高层次前提,明智不仅深化了对道德主体地位的理解,而且揭示了道德教育的机制根据甚至具体途径。作为更高层次的关系概念,道德主体地位和道德对象的关联由此得以深刻凸显。

三、从人工智能看道德主体与道德对象的关系

人工智能道德地位的研究,凸显了道德主体和道德对象的相互关系问题。道德是具体的,一个行为是否道德,必须相对于道德主体与道德对象的关系而言。即使同一道德主体,其道德行为的性质也可能因道德对象不同而不同。面对同一对象,由于道德主体对道德对象理解的不同也会有不同的道德行为。道德主体和道德对象之间这种复杂的关系,恰好可通过人工智能研究获得重要启示。

关于人工智能发展及其道德地位问题的研究,对人类道德主体与道德对象之关系的研究具有两方面启示:一是道德主体和道德对象的关系具有类特性;二是在道德主体和道德对象的关系中,道德关系的建立以道德主体具备明智为前提。

以往以人和动物为对象的道德主体与道德对象的关系研究,在承认动物具有感觉的前提下,认为动物可以是与道德相关的,可以作为道德对象。“一种普遍的观点是,许多动物都有感受质(qualia),因此也有一定的道德地位,但只有人类才具有明智性,这给了他们比非人类动物更高的道德地位。然而,这一观点必须面对边缘案例的挑战,例如,一方面,婴儿或严重智力障碍的人——有时不幸地被称为’边缘人’——不符合明智的标准;另一方面,一些类人猿等动物,可能至少拥有一些明智元素。因此,一些人否认所谓的’边缘人’具有完全的道德地位;而另一些人则提出了更多的方法,使一个对象能够成为道德地位的承担者。”此类研究通常深入到感受质。感受质是指信息体可以感受的特质,比如可以感受到疼痛的特质。感受质本身意味着一个复杂的研究课题,也是以人和动物为对象研究道德主体与道德对象之间关系面临的难题,人工智能的发展为此研究提供了一个新的场域:人工智能与人类构成的双向伦理关系,使其被视为某种程度上的同类,从而凸显了伦理关系的类特性,由此深化了对感受质等问题的信息理解,直达人类道德主体与道德对象之间关系的更深层次。

在知觉和明智之间,发展过渡的主线是从意识到自我意识。只具有知觉不能拥有道德主体地位,但可以是道德对象,人类道德对象向动物的扩展正是道德共同体边界基于类特性而拓展的体现。这是单向的道德关系;只有当对象发展到明智层次时,才能拥有完全的道德主体地位,从而拥有双向道德关系。而那些边缘案例不仅不存在问题,反而可以进一步阐明人的类特性和人的存在本性的展开。例如,婴儿这一边缘案例不仅说明了人是一种将过去和未来维度都包含在内的存在,而且说明了人的类特性。人具有最典型的类特性:只要是这个类中的一员,就享有类中所有成员应当享有的道德权利。如果不承认这一点,人类的道德权利就会被解构。这正是“边缘人”案例所确证的:虽然“边缘人”不具有婴儿的发展潜力,但作为人类成员,他们同样拥有人的类特性。而类人猿案例则可以促使我们深入反思类特性本身的本质与边界。

类具有不同层次,人的类特性目前位于最高层次,而人工智能的类特性处于最低层次。在类特性的最高层次和最低层次之间,道德主体与道德对象之间的关系呈现出丰富多样的形态与内涵。类特性的层次间具有一种重要关系:高层次类特性的智能体可以理解和包容类特性相对较低的智能体。人类是这种关系的典型体现,不仅在本物种内部体现了包容性,而且将这种包容性扩展至超越人类范围的其他物种。正是基于人的这种类特性的权利保护意识,关于类的权利意识向所有生命的延展就都是可以理解的了。在此基础上,我们可以看到:智能体的道德地位事实上是其关系性质的高层次表现,因而与语境密切相关。这就是伦理维度在人工智能发展中具有重要地位的原因。伦理不再是传统意义上相对单纯的伦理,而是作为智能体核心构成的关系要素,并且在人类智能体中有最高层次的实现。

在人工智能道德地位研究的语境中,道德主体性和道德地位问题涉及人和机器两种不同载体,波斯特洛姆认为,“由于道德主体性和道德地位是就信息(智能)体而言的”,所以“我们就应该以同样的方式对待一个人造心灵,就像我们应该在类似的情况下对待一个本质上相同的自然人的心灵一样。这将极大地简化人造心灵的伦理问题”。只是“人造心灵”和人类心灵不是简单的等同,而是一个系列关系的两端。由此可见,对于人类道德主体与道德对象之间的关系问题的理解,应当在人工智能的发展中重新思考。人工智能具有不同于人类智能的载体,可为该问题提供重要启示。

首先,人工智能不同于人类的特质,可以使我们超越人类视角,重新审视道德主体与道德对象之间的关系。人机道德关系的研究极为复杂,正如大卫·冈克尔(David J. Gunkel)所说,“机器人”和“权利”这两个词已经够复杂,而把这两个词放在一起,则更易引发强烈的认知抵触。对许多理论家和实践者来说,“机器人权利”概念是不可想象的,它要么因违背常识或科学理性而无法被思考;要么因被视为思想禁忌或概念亵渎而有意回避。这个概念就像打开了潘多拉盒子,因此必须被压制。跳出人类视角来重新思考道德主体与道德对象之间的关系问题,有助于摆脱复杂的人类关系的纠缠,避免陷于“不识庐山真面目”的境地,从而对所思考的问题有一个全新的整体观照。

其次,人工智能的发展为道德主体与道德对象的关系以及人类道德规范研究提供了重新思考的重要条件。一方面,道德规范在根本上涉及道德主体与道德对象之间的关系,无论作为道德主体还是道德对象,人工智能都为道德规范的制定提供了新的关系定位框架。“为了说明为什么我们的一些道德规范需要在人工智能复制的语境中重新思考,只需考虑人工智能的一个特殊属性:快速繁殖的能力。如果能够访问计算机硬件,人工智能可以在不超过复制人工智能软件所需时间之内很快地复制自己。此外,由于人工智能复制件与原件相同,它一生成就是完全成熟的,并可立即开始制作自己的副本。因此,如果没有硬件限制,人工智能群体可以极快的速度成倍增长,其时间以分钟或小时而不是几十年或几个世纪论。”这与人类漫长的生命周期与研究周期形成鲜明对比,从而提供了周期完全不同的研究条件。另一方面,信息体的基本特性也是影响道德主体与道德对象关系的重要因素,由于人工智能和人类智能运行速度的差异,不仅可能引发新的道德问题,如在超高速决策场景中重构责任归属机制,而且可能重塑道德主体与道德对象之间的关系,从而扩展问题研究的视野。

再次,道德责任是道德主体与道德对象之间关系的重要层面,人工智能道德能动性问题的研究,为人类道德责任问题的探索提供了全新的关系构架。在这一关系构架中,道德责任问题的思考可以在更基本层次涉及道德能动性的起源和机制。由智能算法的进化,可以由简入繁更深入地考察道德主体相对于道德对象的道德能动性根据。关于智能算法伦理问题的研究发现,智能芯片就是智能算法的重要产物,由于算法已经具有自身的力量,因此不仅直接涉及算法伦理,而且逐渐成为道德能动者,具有道德主体地位,成为伦理可责对象。根据智能算法的角色定位及其所发挥的作用,我们可以在更深层次探索道德责任的根据。“行为主体及其行动在原则上可被评价为值得赞扬或谴责,且这类评价往往不仅基于行为本质,更服务于教化、教育、社会或宗教等目的。”由于做出决策的算法可以被认为是负有责任的能动体,算法的道德地位和道德决策能力仍然是机器伦理学中的一个突出问题。诚然,关于道德能动性的起源及其机制,研究也可以通过儿童的发育成长及其行为的分析进行,但这种方式在很多方面存在难以克服的困难,如观测周期长、伦理约束多等而人工智能研究恰恰可以突破这些瓶颈。比如,有人提出了一种基于英雄美德的人工道德主体的理想模型,“这种勇于承担罪责的英雄主义态度,与众多道德哲学家视为自明真理的’应然蕴含可能’的原则背道而驰”。其中,“算法被训练为具有英雄气概,因而是道德的”。这些已经进行的研究还只是就人工智能伦理设计的,如果以人工智能为对象来研究人类道德问题,就完全可以根据研究需要不断深入进行,而不存在以人为对象时的伦理问题。

最后,人工智能与人类道德的相关研究,将为人类道德主体与道德对象之间关系的研究提供完全不同出身的道德主体之间关系的启示。这种比较研究条件,不仅可以催生诸如“个体发生学不歧视原则”(即“如果两个智能存在具有相同的功能性和相同的意识体验,仅仅在出身上有差异,那么他们就具有相同的道德地位”),而且可以为人类不同出身的个体间道德主体和道德对象关系研究提供重要启示。此外,这种比较研究条件还可以大大深化我们对道德实质的理解,让我们可以在道德主体发育和道德地位问题以及道德主体与道德对象关系的研究中建立双向循环机制,从而把道德主体性研究提升到整体层次。

结 语

关于人工智能与道德主体问题的研究有两种基本进路:一是直接探讨人工智能作为道德主体及其地位问题;二是分析人工智能发展对于道德主体性问题研究的启示。鉴于现阶段人工智能的性质,讨论其道德主体性问题为时尚早,而追问人工智能的发展对于道德主体性问题研究的启示,则既现实又富有意义。在道德主体性问题的研究中,以人类等高等动物为对象的研究具有很大的局限,典型的如越是深入,越是有很多方面不能将人类等高等动物作为研究对象。而作为没有生命的通过技术进化而来的机器,人工智能就可以弥补这方面的诸多不足。正是由此,道德主体性研究可以从人工智能的发展中获得诸多启示。人工智能的发展为道德主体与道德对象关系的研究提供了全新对象条件,其不同于人类的性质可以使问题的研究跳出人类自身;其道德能动性可以为人类道德责任问题的探索提供全新关系构架;其与人类的道德关系可以为人类道德主体与道德对象之间关系的研究提供不同道德主体之间关系的启示。

(为适应微信排版与阅读,注释从略,转载引用等请参阅期刊原文。)

#artContent img{max-width:656px;} #artContent h1{font-size:16px;font-weight: 400;}#artContent p img{float:none !important;}#artContent table{width:100% !important;}