近些年来,我国人工智能相关技术和产业发展迅速,对经济社会和人的全面发展带来巨大影响,关于AI向善问题引起全社会高度关注。广义的“善”是诸多社会科学研究的立意和主题,技术是否向善,根本在于是否促进经济发展、社会进步和民众幸福,也就是能否增进人类福祉。社会科学能够深刻洞察并前瞻性地审视人工智能是否向善发展,可以从理念、评价标准、实现路径和行为主体等维度,为此议题提供独特的学术贡献,让我们更有能力从资源配置效率、社会福利损益、财富公平分配、公众意愿感知评测以及维护社会和谐等方面判断AI之善恶,为促进AI向善发挥重要作用。
何为善:社会科学的视角
长期以来,关于AI向善的讨论已经很多,理念上的共识度相当高。诸如安全性、透明性、非歧视、可解释、可追溯、公平公正、包容开放、尊重隐私、共享利益、以人为本、人类控制等理念不断被重复讨论,但对于如何实现、谁来执行这些“善”落地的讨论较为不足,缺少一般性、稳定性和可度量性。这个问题需要更多放到社会科学知识体系内进行深入讨论。
合理是善,即高效配置资源、增加社会福利和公平分配。经济学将“合理”定义为资源配置效率提高、社会福利增加与相对公平分配,前者可用全要素生产率、收入增长等衡量,后者可用基尼系数等衡量。以此为标准,AI在提升全要素生产率和促进社会福利增长等方面有明显贡献,体现了技术的合理之善。经济学为实现合理之善指明了路径与主体:让市场在AI相关领域发挥配置资源的决定性作用,这决定了企业是核心行为主体。同时,市场的有效运行离不开平等竞争、公平准入等良好环境,因此必须健全并完善市场规制。从公平分配角度看,AI目前尚存在“不善”影响:一方面财富更加集中在创新成功的少数人手中,另一方面AI产生的替代作用主要影响中低收入群体。解决这个问题,既需要AI企业的努力,也需要政府更好发挥作用,在以替代劳动为主要效果的AI技术应用和AI新创就业机会之间保持必要的平衡,并在完善长期社会保障制度方面更好地履行政府责任。
用益是善,即提供超出GDP边界的消费者获益。有些技术进步的收益无法用标准意义上的GDP增长来衡量,却能带来大量消费者剩余或称之为用益,通俗地讲就是给人民群众带来便利、幸福等诸多获得感,AI技术在这方面的表现极为突出。首先,AI带来了便利之善。基于网络、AI模型和智能体的大量自助服务为使用者带来很大便利,却并没有产生可以计入GDP的经济行为,相反却替代了原先可以计入GDP的服务,如自助订票取代了订票服务、免费网络信息取代报刊订阅、电子邮件取代邮寄信件等。文化领域尤为典型,娱乐平台与生成式AI极大便利了消费,但市场规模并未同步增长。其次,AI带来了平权之善。AI将海量普通消费者带入原本只有高收入和高知识群体才普遍拥有的消费领域和创意领域。比如,在文化消费领域,文字阅读能力差的消费者可以选择让AI提供或生成图像和视频等形态丰富的文化产品;在文化创意领域,普通人也能将灵感转化为文化产品并与人分享。用益之善以免费、自娱、互助等方式呈现,无法用GDP增长或收入增加来衡量,但可通过条件价值评估法(询问愿意支付多少)或意愿价值评估法(询问放弃用益需补偿多少)来测算。有研究表明,低收入者获得的用益相对其收入的比例要显著高于高收入者,表明AI确有平权和提升低收入者福利之善。但是,用益方面也存在“不善”影响。有些带来一时心理愉悦感的消费会造成深层、长期的身心损害,例如沉溺网络游戏、厚重的信息茧房导致认识受限等。对此,技术持有方和使用方应有克制和自律的责任,没有应对之策就不要轻易做出这些不善之举,发现不良后果就要以技术之力加以约束限制,这就如同产品生产者负有产品质量责任,不能出售危害健康和危及生命的产品。同时,还需要政府与社会协同给予应对处置。对那些全社会有共识的“恶”——如挑战人类价值观底线、侵害个人隐私、宣扬恐怖主义等言行或内容——公权力部门就要进行强力处置。
合意是善,即科技长期后果的社会共识度和接受度较高。社会科学多个学科都有关于“合意”的研究,例如社会学视阈中的社会共识代表着一种较高程度的社会合意。这里,我们将“具有最大公约数的社会共识和由此决定的社会团结”定义为合意,并用合意性来讨论AI时代的科技伦理问题。科技伦理问题久已有之,但在AI时代特别突出,其性质有根本变化。过去我们讲科学是“发现自然规律”,那些都是自然秩序中内生之规律,是自然界万亿年间各种力量博弈和演进形成的规律。现在AI努力构建自然界和人类社会演进中并不存在的状况,创造新的秩序,不少探索意在改变人类自然状况或者人类社会状况。此种情景下,人类对某种科学发展方向是否认同就变得很重要,这就是合意性。当科学家们试图改变经千万年演进形成的人类特征和自然规律时,公众必须知情和参与,表达合意与否。这种讨论或许难以用类似意愿价值评估法来推进,往往需要公共透明开放的集体性磋商。科学家有责任向公众说明其全部可能后果,而不仅仅讲其有利之处,同时允许全社会进行充分讨论,形成具有最大公约数的社会共识。各方充分表达并持续博弈才能找到合意性的趋近路径和现实位置,不能听由技术逻辑成为主导因素。
机制探讨:各方协作促进AI向善
AI之善不会自动发生。向善的激励来自何方?机制如何设计?实践表明,与“向善”相容的激励机制和导致“不善”的因素在多个层面都存在,AI时代“不善”和“向善”的力量都与之前有所不同,“向善”既需要自我约束也需要社会约束。
第一,AI创新与生产者的“向善”激励相当显著而且有效。AI需要非常大规模的应用,如果其“善”得不到社会共识甚至被指为“不善”,是不可能被很好地长期应用的。全社会对AI安全和伦理问题的高度关注,给企业和创业者带来了无处不在、强大且持续的压力与价值观导向。信誉维护要求生产者“向善”,被社会认为“不善”时需要快速回应调整。从这个角度讲,“向善”激励机制在这个时代是泛在而强大的。
第二,分布式治理是AI向善的治理特色。AI和数据产业与以往产业最重要的不同是应用的场景化。过去市场资源配置是一对一的,但AI时代的资源配置是簇群式、场景化的,我们将其定义为分布式资源配置。在分布式资源配置中,利益和理念相关者针对特定场景结成共同体,市场和社会主体自主选择特定交易与合作对象。并且,每个场景都有自身的规则,例如平台有各自的交易规则、退货规则、违规惩罚规则等,规定了何为本场景中的“善与不善”,也就是参与者能做什么不能做什么。参与者遵循这些规则,使这些共同体同时具备了治理功能,这可以称之为分布式治理。
第三,公权力的治理必不可少。有些后果严重的“不善”不能交给市场和社会博弈,而是应由政府明确“不得为”的负面清单。例如,不得未经用户同意侵犯用户隐私,不得发布虚假信息、恐怖主义、仇恨言论等。要让市场和社会治理有效,政府最重要的职能就是强制公开透明。一方面,企业必须让消费者可以清晰看懂用户协议,协议细节的公开透明非常重要;另一方面,凡是与人类自身和人类社会相关的创新,提供者要向社会和公众讲清楚在做什么以及可能的后果。此外,政府发布指南和优秀案例、批评不当做法、约谈相关企业等,这些都对AI向善有显著引导作用。
(作者:江小涓,系中国社会科学院大学教授、国家数据专家咨询委主任委员)