首页 > 专家观点 > 正文

代金平、李杨:构建负责任的人工智能社会治理体系

[摘要]人工智能社会治理是为了更好地促进社会的福祉和人类的发展。构建负责任的人工智能社会治理体系,一方面为人工智能的健康发展提供社会支撑,另一方面可以有效应对人工智能发展带来的社会问题。在这个意义上,人工智能的社会治理的核心任务是确保人工智能与人类社会的良序发展。从发展负责任的人工智能到负责任地发展人工智能,从强调个体责任到形塑共同责任,负责任地开展人工智能的社会治理,是推动人工智能向前、向善发展的有效路径。

[关键词]人工智能;社会治理;责任问题;伦理问题;共同责任

人工智能正在改变人们的生产方式、生活方式、交往方式乃至思维方式。随着人工智能日渐渗入人们的日常生活,在带给人们便利的同时,也可能产生各种风险,甚至对人类的生存构成威胁。《新一代人工智能发展规划》(国发〔2017〕35号)明确指出:人工智能是影响面广泛的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。因此,在大力发展人工智能的同时,必须高度重视其可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控地发展。国家新一代人工智能治理专业委员会在2019年6月和2021年9月分别发布了《新一代人工智能治理原则》和《新一代人工智能伦理规范》,将人工智能引发的责任问题和发展负责任的人工智能提上议事日程。发展负责任的人工智能,在更为根本的意义上是负责任地发展人工智能。一般认为,作为人工制品或者人造物的人工智能是由人类决定、设计和使用的,这也就意味着人类有责任负责任地发展人工智能。基于此,探讨负责任地发展人工智能,构建负责任的人工智能社会治理体系,已经成为当前十分迫切的任务。

 一、责任问题的提出

近年来,负责任研究、负责任创新、负责任研究与创新等成为学界和社会反思科学技术与社会之间关系的关键概念。虽然在“负责任”的具体内涵上尚未达成一致意见,但负责任已经被普遍视为确保科技向善的有效应对策略,同时也成为开展科学技术社会治理的一种可能原则。

 纵观现代道德哲学,责任观念在启蒙道德哲学家的道德谋划中或多或少是缺位的。启蒙道德哲学将个人权利视为契约社会道德建构的关键,认为责任并不是一个核心观念。直到20世纪初期,马克斯·韦伯等思想家才开始对责任进行系统的研究。韦伯将伦理分为“责任伦理”和“信念伦理”:“责任伦理”可以看作是行动逻辑的政治伦理,是在政治生活中承担自己行动后果的责任;而“信念伦理”可以看作是宗教情怀的政治伦理,是在政治生活中秉持善的目的的信念。正如有学者指出的,韦伯“清醒地认识到,现时代是一个理智化、理性化和‘脱魅’的时代,已没有任何宗教先知立足的余地,作为一个以政治为志业的人,只能依照责任伦理去行动”。在韦伯这里,责任伦理的准则或者说道德责任的内涵,是“当事人对自己行动[可预见]的后果负有责任”。由此可见,责任被视为伴随着契约的一种特殊回应,是“人们对自己行为的过失及其不良后果在道义上所承担的责任”,是从契约伦理关系中引申出来的一种遵守契约的表现,也可以说是维护契约的保证。这种原子式的道德责任观其实质是“我们没有对他人的责任,更不用说对作为一个整体的社会的责任,除非我们选择承担它们”。这也就是说,道德责任本质上具有单一性、片面性、不稳定性、任意性和脆弱性。这种只关心合理的个体直接利益和利益最大化的谨慎的个体主义以及只在需要负责任的时候承担责任的观念是不能令人满意的。

 20世纪后半叶,道德哲学尤其是应用伦理学开始重新审视责任观念。在应用伦理学的诸多领域中,在企业伦理、生命医学伦理、环境伦理、科技伦理等领域,责任成为关涉整体的具有道德实践内涵的核心概念。有学者指出:“在应用伦理学的诸多领域中,没有任何一个领域像科技伦理那样同责任概念联系得如此紧密。”20世纪70年代,欧美技术哲学呈现出伦理转向,尤其是汉斯·约纳斯将责任伦理直接视为技术时代的伦理观。约纳斯批判启蒙道德哲学主张的个体主义道德责任观,倡导一种责任伦理学,重建以自然为本体的形而上学,从本体论上引申出以“责任”为中心的伦理准则以替代传统伦理学,试图以此应对技术时代的伦理困境。约纳斯认为,在科学技术时代,科技活动影响的范围和时间跨度已经远远超出了个体研究者的视域和控制能力,传统的基于个体直接关系的道德责任已无法应对这一状况,因而应当倡导整体主义的责任伦理观。他认为,道德责任关涉的是人类整体的生存和幸福,是单个人对人类共同体整体命运应承担的责任。约纳斯所倡导的责任伦理为解决启蒙道德哲学“近距离”的道德责任的缺陷提供了一条恰当且重要的路径,“立足于人类整体理解人的责任,从更开阔的全球化或大地共同体的视野和更为长远的子孙后代繁荣昌盛的意义上回应‘祛责之问’”。针对科学技术本身的发展,则提出了前瞻性道德责任和整体道德责任的概念。

 与此同时,科技工作者也在反思“能做什么”和“应当做什么”,反思科学技术活动的社会影响和社会责任问题,逐步意识到科技工作者不但要做到科研诚信,更要承担应对科学技术应用可能带来的风险的社会责任。正如维纳指出的,科技工作者不能通过将善恶选择的责任抛给所创造出来的科研成果,从而推卸自己在做出科学研究选择时所需承担的责任,任何试图逃避这种责任的科技工作者最终将会被逃避反噬。“如果他们(指科技工作者——引者注)不能恰如其分地作为负着责任的人,而只是作为齿轮、杠杆和连杆的话,那么即使他们的原料是血是肉,实际上和金属并无什么区别。”丧失责任感的科技工作者是没有真正的生命的。20世纪现代科学技术的迅速发展,带来诸多伦理问题(比如基因科学技术带来的生命伦理问题、核科学技术带来的环境伦理问题、航天科学技术带来的太空伦理问题等),对此科技工作者已无法回避。而且科技工作者作为专业人员在某些尖端科技领域处于近乎垄断的地位,这可以看作是社会分工的结果,因此科技工作者有责任积极有效地应对研究成果应用带来的消极影响,主动阻止研究成果被错误应用,尽可能避免因科研成果的应用而给人类造成伤害。与此同时,科技工作者作为社会发展的最重要驱动力的具体执行者,其科学研究方向的选择受政府和公众的影响。但更为重要的是,他们的科研活动及其成果影响着政府决策、资金投向、公众选择和社会的价值取向。因此,科技工作者有责任遵循知识规范和伦理规范,有责任不去做“导致潜在风险的研究、违反知情同意的研究、假公济私的研究、严重危害环境利益的研究和有偏见的研究等”。

 承接20世纪后半叶人们对科学技术反思的传统,近年来,欧美国家提出了科学技术发展的一种新理念——“负责任创新”,并受到社会各界的广泛关注。雷内·冯·尚伯格认为,负责任创新是“一个透明的并具有相互作用的过程,其中,社会行动者与创造者就创新过程和畅销产品产生的伦理可接受性、可持续性及社会期许等问题彼此响应”。在某种意义上,负责任创新“将科技伦理、企业社会责任和技术创新有机结合,关注技术创新引发的重大社会和环境问题,从伦理、责任和政策角度寻求解决这些问题的途径”。负责任创新将企业社会责任同技术创新实践密切结合,从伦理角度评估和影响技术创新各个环节,以保证技术创新成果的可持续性和社会可接受性。负责任创新的真正实现不但需要创新者的负责任创新,还需要学者的负责任研究、政府的负责任行政、企业的负责任经营、学校的负责任教育、媒体的负责任传播和顾客的负责任消费等,如果没有其他负责任主体的支持和其他负责任行为的配合,负责任创新就只能沦为空谈。由此可见,负责任创新的各个主体之间应密切合作。正如欧盟委员会在《加强负责任研究和创新的选择》专家组报告中指出的:“所有的利益相关者在研究和创新过程的初期就参与进来。首先,使其了解自身行动的后果和所面临的选择范围的影响;其次,有效评估涉及道德价值的结果和选择;再次,将前两者作为新研究、新产品和新服务的设计与开发的功能性需求。”杰伦·凡·登·霍温提出了负责任创新的实现路径,那就是“从道德价值的角度出发,在直接和间接利益相关者的协助下,公开而富有前瞻性地评估和分析可选择方案及预见结果”,在具体情境中超越价值设计,提出切实可行的解决方案。

 目前,责任问题已经成为人工智能伦理的重要话题,“负责任”已被视为人工智能研发和应用应遵循的重要原则。《人工智能负责任发展蒙特利尔宣言》中提出了幸福、自主、正义、隐私、知识、民主和责任等七项开发原则;欧洲科学与新技术伦理组织发布的《关于人工智能、机器人及“自主”系统的声明》主张,开发活动遵循有意义的人类控制原则且相应责任仍然归于人类;欧盟委员会发布的《算法责任与透明治理框架》提出,将算法透明和责任治理作为解决算法公平问题的工具,并强调负责任研究与创新在促进实现算法公平中的作用和意义;我国新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》提出新一代人工智能治理的八项原则,明确要求发展负责任的人工智能。

 人工智能的发展尤其是其与经济联动所带来的风险,在某种意义上将超越人们的控制能力,如对其产生的负面影响和带来的棘手问题应对失当,将会给社会生产和生活秩序带来不良影响,给社会稳定带来威胁。如果说风险是尚未发生的可能性,那么预见并降低风险则是一种最好的选择。因此,探讨负责任的人工智能社会治理体系具有重要意义。负责任创新为人工智能社会治理提供了一条参考路径,然而,由于人工智能的复杂性、不确定性和高风险性等特征,使得“责任”拥有了更为丰富的内涵,在这个意义上,发展负责任的人工智能要求树立一种前瞻性的道德责任观念。正如有学者指出的,倡导前瞻性道德责任让“责任主体提前充分考虑自己的行为及研究成果可能造成何种影响与后果,为将来可能发生的事情负责”。除此之外,这种前瞻性道德责任更重要的是促使人们思考如何构建行之有效的负责任的人工智能社会治理体系。

二、从个体责任到共同责任

人工智能社会治理体系的构建必须坚持负责任创新的基本原则,然而,这种负责任的类型以及责任的承担者具有自身的特点。如前所述,科技工作者是责任主体,许多从事人工智能开发设计的科技工作者也意识到了自身应承担的社会责任,并且围绕相关议题已经展开探讨和研究。科技工作者在开发过程中必须加入伦理考量,思考“能够做什么”“应该做什么”和“应该怎么做”,应当对自己的研究成果终生负责。在将研究成果转化为人工智能产品的过程中坚持伦理观念至上、社会利益至上,把国家利益、社会利益和集体利益放在第一位,树立人民利益至上的观念,把人工智能与社会福祉联系起来。同时从道德层面理解责任,把人工智能伦理作为人工智能产品开发与设计的重要元素,赋予人工智能以科学合理的伦理规范,引领人工智能走可持续发展道路。

根据科技工作者所承担的不同角色,科技工作者的个体责任有三个层次:第一指向科研职业,第二指向出资机构,第三指向社会。科技工作者的职业责任很大程度上是科技工作者对科研事业和科学界其他科技工作者的责任;雇佣责任是维护出资机构(支持机构、雇主)利益的责任,是按照契约的约定科技工作者所面临的直接责任;社会责任则是科技工作者在应对其行动所产生的影响时所体现出来的责任。这种个体责任的多样化不仅源于科技工作者所扮演角色的多元化和现代契约关系的多样化,而且源于科技活动对人类生活影响的日益广泛和深入。科技工作者作为科技活动的主体,直接面对科技活动现场,比其他人更有能力介入对科技活动的控制。科技工作者的责任“贯穿于科研活动(从选题、论证、研究、科研成果社会应用的预测、决策到实施等环节)的全过程”。科技工作者不仅承担探索研究的责任,而且还应承担以道德的方式开展探索研究的责任。科技工作者在运用科技成果服务人类生产生活的过程中,要始终保持清醒的前瞻性责任意识。

然而,在很多情况下,科技工作者面临着“要做”与“不要做”的责任冲突。这种冲突一方面源于相关道德规则的冲突,如“对职业的责任”与“对雇主的责任”的道德要求可能存在冲突,尤其是雇主要求的研究项目是有争议的或者是违背科技职业道德的。在现实生活中,职业责任和社会责任在制度安排上常常让位于对雇主的责任。正如齐曼指出的,科技工作者在面对雇佣他们的组织时,常常被迫放弃他们的道德独立性。在这种情况下,雇员责任会使科技工作者丧失更为宏观的社会视野。很多时候,科技工作者很可能仅仅坚持对科技事业负责的立场而为工具理性所控制,或者很可能本着仅仅对雇主负责的观点而成为不再有特殊德性的“社会利益群体”,从而成为遵守职业角色(对雇主负责或对职业负责)规范的“平庸的恶人”。也就是说,虽然科技工作者自身已经意识到应该承担社会责任,但在雇员责任、职业责任与社会责任之间发生冲突的时候,常常并不能做出理性明智的选择。这种冲突另一方面源于现代科学技术本身发展的困境,由于现代科学技术的复杂性,对潜在风险的准确预判可能已经超出了科技工作者的能力和视域。“单个研究人员肯定无法胜任对其行动的后果做出可能的评估” ,这一点在人工智能的发展中表现得尤为突出。

在人工智能的开发和应用问题上,无法准确预见可能的社会危害的一个重要原因在于,对潜在风险的评估已经超出了现有的技术水平,除此之外,还可能存在出于对利益或者纯粹的科学研究目的的追求而置社会福利和责任于不顾的现象。科技工作者并不是唯一的责任主体,人们不能仅仅依靠科技工作者来应对科学研究及其成果的直接影响和潜在影响。《新一代人工智能治理原则》规定了共担责任的原则,指出人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识,要明确研发者、使用者和受益者等的责任。负责任地发展人工智能,需要科技工作者、公众以及其他利益相关者共同承担人工智能研发应用所可能产生的后果。

人工智能研发应用中的共同责任,是将政府、企业、公众、投资人及其他利益相关者一起纳入责任体系中而建构起来的责任共担机制。在共同责任中,所有行动主体都应承担相应的“共同而有区别的责任”“共同而有区别的责任”由于成为1992年联合国环境与发展大会提出的国际环境公约中的一项基本原则而广为人知,其实这一概念早在20世纪70年代就已经出现在国际经济法学领域。从责任的分配来看,人工智能的设计者、生产商、各种相关组织与团体、政府管理部门与使用者都需要承担相应的责任。只有各个道德主体积极主动并有效地承担各自的责任,人工智能才能真正造福人类。人工智能科技工作者必须预知技术可能产生的负面影响,并尽最大努力通过改变技术设计的方式避免负面影响的产生。此外,人工智能生产商、负责人工智能安全评估的组织或团体、政府管理部门、人工智能使用者作为共同责任主体都应该树立一种前瞻性的道德责任观念,发挥协作精神,树立共同责任意识,共同对人工智能的潜在风险作出预判,共同为人工智能发展保驾护航。要真正落实从个体责任到共同责任的转变,在责任分配中努力避免责任扩散的伦理困境和所谓的“有组织的不负责任”。责任扩散的伦理困境是指如果责任可以分为很多方面,那么所涉及的每一个方面都认为自己不应该为之承担责任。“有组织的不负责任”是指专家、企业、政策制定者等结成利益共同体,他们为了利益而采取不道德的实际行动,并通过构建一套话语体系来推卸其责任,从而把自己制造的危险转化为社会风险。

三、负责任的人工智能社会治理的路径

从发展负责任的人工智能到负责任地发展人工智能,从强调个体责任到形塑共同责任,需要进一步探索负责任地开展人工智能社会治理的路径,为发展人工智能营造良好的社会环境。

 首先,健全人工智能伦理的审查和评价机制。“如果没有伦理审查,科技工作者很容易忽视社会责任和义务,从事不是最大程度上有利于公众福利的项目。”(1)要加强人工智能伦理研究。人工智能产品研发必须贯彻伦理原则,必须把伦理观念融入人工智能产品的研发中。因此,要大力加强人工智能伦理的学术理论研究,用高水平的理论成果引导符合伦理的人工智能的研发和应用。(2)建立同行评议制度。在同行评议过程中增加前瞻性道德责任的考量,同时同行评议需要实现从“本体思维”到“伦理思维”的转变,也就是实现从“求真思维”到“求善思维”的转变。另外,同行评议不能仅局限在促进单纯的认知质量上,还需要评议科技成果或科研计划的道德问题和社会效应。(3)建立人工智能技术开发监督委员会。人工智能技术开发监督委员会由人工智能行业专家、伦理学专家、社会学专家等组成。该监督委员会对人工智能技术开发实施全过程监督,对人工智能可能产生的伦理后果进行科学预测,及时发现并解决人工智能技术开发中存在的伦理问题。(4)构建人工智能社会治理风险评估体系,对人工智能技术开发进行风险管理。风险管理应贯穿人工智能社会治理的全过程,明确人工智能技术开发各主体的风险管控责任。

 其次,加强政府对人工智能的科学治理。(1)政府有关部门应与人工智能企业加强合作,共建人工智能社会治理平台。(2)政府对人工智能开发活动应加强指导和监管。政府应对人工智能研发和应用“提出伦理和法律方面的要求,以此来保护人权、公众健康及其他重要的价值”。(3)政府应设置人工智能社会治理伦理审查委员会。人工智能社会治理伦理审查委员会由从事人工智能研发和教学的专家、伦理学专家、人工智能社会治理方面的专家组成,对人工智能研发应用中可能涉及的重大伦理道德问题进行审查并提出审查报告。(4)建立健全“可信赖人工智能”认证制度。政府设立专门的认证机构,对人工智能产品进行科学认证,督促学术界和人工智能产品开发企业主动贯彻并践行“负责任的人工智能”理念,对人工智能产品的研发、制造和使用实行全过程监督。(5)加强政府部门与司法机关、行业组织、社会公众的联系,充分发挥各主体的共治效能,形成人工智能共治合力,建立多元主体共同治理模式。(6)把“善治”作为发展负责任的人工智能的目标和方向。政府通过人工智能手段加强对民生问题的发现和分析,不断增强风险意识,提高政府运行效率,在推动社会治理现代化过程中实现“善治”。(7)构建公平公正的伦理规范。人工智能时代的伦理规范应体现公平和稳健的基本特征,人工智能产品研发既要保障程序公平,又要保障结果公平,在人工智能产品研发中要保障成本的合理分担和利益的合理分配,在应用中应保障个体或者弱势群体不受歧视。

再次,倡导人工智能的公共参与,建立负责任的人工智能社会治理共同体。(1)建立人人参与的人工智能社会治理共同体。党的十九届四中全会提出:“社会治理是国家治理的重要方面。必须加强和创新社会治理,完善党委领导、政府负责、民主协商、社会协同、公众参与、法治保障、科技支撑的社会治理体系,建设人人有责、人人尽责、人人享有的社会治理共同体,确保人民安居乐业、社会安定有序,建设更高水平的平安中国。”向善的人工智能能助推国家治理体系和治理能力现代化,而构建负责任的人工智能社会治理共同体,需要公众负责任地广泛参与到人工智能产品的研发、生产、应用、评估等过程中。(2)加强人工智能领域的科普。目前,人工智能的研发和应用已经引发社会广泛关注,加强人工智能领域的宣传和科普,能够充分地沟通信息,克服信息不对称带来的误解,让社会公众了解人工智能发展的历史、现状和未来发展趋势,了解人工智能发展可能存在的风险。这不但有利于科学决策,还能有效释放社会公众的恐惧不安情绪,为人工智能的健康发展创造有利的社会环境和条件。(3)促进人工智能学界、产业界与公众之间的对话。“通过商谈对话,相关各共同体之间可以增进相互理解,消除各共同体之间信息的不对称性,使各共同体之间的实际利益矛盾得到相对完善的解决。”从商谈伦理的角度来看,人工智能学界、产业界与公众之间需要建立“对话平台”,将利益相关方都包括进来,通过各方之间利益的协调,形成可以被绝大部分人接受的人工智能发展方案。当然,在商谈过程中,需要开展严肃、清晰和持续的对话,在制度规则框架内不断进行协商,无论是人工智能领域的专家还是普通公众,都要充分意识到自身所承担的责任。“公众作为参与者不仅使自己的意见、利益得到表达,而且能够将决策转化为积极的行动,也为其可能产生的后果承担起责任。”

最后,加快培养负责任的人工智能创新人才和人工智能社会治理人才。发展人工智能的核心是技术,开发技术、掌握技术以及应用技术的根本在人。(1)加快人工智能课程体系建设。组织该领域的专家学者编写人工智能高等教育和应用基础教育的标准教材,大中小学开设人工智能相关课程,帮助学生了解和掌握人工智能相关知识,为适应人工智能时代奠定基础理论知识。(2)高度重视人工智能专家型人才的培养。人工智能技术处在目前科学技术发展的最前沿,人工智能专家在人工智能研发和产业化方面发挥着关键和核心的作用,因此,国家应对人工智能专家型人才实施重点培育。(3)加强人工智能社会治理的学术理论研究,在有条件和力量的高校开设人工智能社会治理方向的相关专业,并将人工智能伦理学作为核心课程之一,为未来人工智能社会治理储备人才,提供智力支撑。

四、结 语

在人工智能快速发展的时代背景下,构建负责任的人工智能社会治理体系是推进国家治理体系和治理能力现代化的题中应有之义。人工智能与社会治理的深度融合,既有利于促进人工智能的迅速发展,也有利于提升社会治理的现代化水平。我们应主动适应科学技术迅猛发展的态势,将人工智能技术应用于社会治理,更新社会治理理念,提升社会治理水平,不断推进国家治理体系和治理能力现代化建设。构建负责任的人工智能社会治理体系,健全人工智能学界内部的伦理审查和风险评估机制是重要前提,加强政府对人工智能发展的引导和治理是关键环节,建构负责任的人工智能社会治理共同体是有效措施,建立人工智能社会治理梯级人才培育体系是基本保证。构建负责任的人工智能社会治理体系,关键在于树立责任共同体意识,实现从个体责任意识到共同责任意识的转变。负责任的人工智能社会治理是一种前瞻性社会治理、预期治理。面对人工智能发展带来的挑战和风险,前瞻性社会治理要求尊重人工智能的发展规律,对人工智能的开发与应用进行全过程治理。基于“共同责任”对人工智能的社会治理展开研究,对于健全人工智能科技伦理治理体制,提高人工智能社会治理水平,促进科技创新和创新型国家建设都具有重要意义。这种前瞻性社会治理也是从科技工作者、政府、企业、公众等角度展开的以人为本的社会治理,是“人工智能时代的中国道路、中国方案”。