11010502036085号
网站标识码bm13000002
□ 林洹民
欧盟的《人工智能法》明确采取风险管理进路规范人工智能活动。风险管理进路未必合理。我国如果简单地照搬他国模式进行人工智能立法,不仅无法为世界法治贡献智慧成果,也将丧失引领人工智能全球治理的良机。笔者将提出人工智能立法的另一种思路与策略,努力打造一种既能满足人工智能动态监管需求,又能促进人工智能创新发展的新型治理框架。
人工智能立法风险管理单一进路之检讨
(一)风险管理的正当性问题
欲在政策上选择风险管理进路,必须首先论证为什么让个体与社会承受不可知的重大损害是值得的。并非所有人都是科技的受益者。在科技转化过程中存在决策者、受益者与波及者三方主体。波及者是不能参与政策制定又难以享受科技福利的群体。在风险管理路径下,偏离一般基准的人,如老人、低智力群体,往往被迫承受技术发展的不利后果,他们的特别需求也常被忽视。人们已逐渐认识到风险管理路径的弊端,转而考虑采用其他替代策略。
(二)风险评估的可行性问题
其一,欠缺高质量的数据和有效的模型。首先,缺乏作为量化评估基础的高质量数据。在新技术被投入应用前,并不存在可供评估风险的相应数据。即便就已投入应用的产品而言,受技术发展、地理、时间等各方面因素影响,所提供的数据也未必具有参考性。其次,目前并不存在评估人工智能风险的有效模型。对新兴技术的风险评估,将因沿用旧有的分析框架而无法精确界定与测量风险。
其二,难以准确评估技术叠加引发的风险。人工智能大语言模型引发的风险具有叠加性,使得风险评估更为困难。在“大模型+具体应用”的产业生态中,上游基础大模型和下游具体应用之间存在着复杂的依存关系。对上游大模型的风险评估无法预计下游应用产生的具体风险,对下游应用的风险评估也无法预测反馈机制对上游大模型自我学习能力的影响。
(三)风险分类的融贯性问题
目前国际上的风险分类模式主要有三种:风险属性划分模式、风险内容划分模式以及风险程度划分模式。风险属性划分模式是一种依据风险属性对人工智能活动进行分类的治理模式。风险内容划分模式是依据风险现实化的后果进行分类。由于观察者会因信息获得渠道与关注焦点不同而总结出不同的风险类型,风险内容划分模式很难形成一套具有说服力的风险类型。风险程度划分模式以欧盟《人工智能法》为代表。这一模式也存在明显的局限性,第一,风险程度缺乏明确的判断标准。第二,僵化的风险类别与高速发展的人工智能技术之间存在张力。一方面,随着人工智能技术的发展,原本被视为限制性风险或最小风险的人工智能应用可能会变得具有高风险性甚至不可接受。另一方面,原本被认为禁止应用或高风险的人工智能活动,也可能随着安全技术措施的发展与应用风险程度显著降低,但因规范的滞后性,相应的人工智能活动将受到不当限制。
因应人工智能活动特性的复式立法路径
(一)人工智能活动的双重属性
科技大致被划分为专精科技和赋能科技两类。以往的科技要么属于专精科技,要么表现为赋能科技。人工智能活动同时属于专精科技活动与赋能科技活动。人工智能研究属于一项专精科技活动,旨在开发出可以自我分析、自我总结、自我纠错的人工智能系统。人工智能研发本质是一项科学研究,属于专精科技活动。以往的科技常被认为是定向的,影响范围基本是领域性的,即便通过跨学科合作产生了一定的开放性,也不具备通用性。人工智能的出现改变了科技的定向性。人工智能是一项通用技术,是科学研究、教育、制造、物流、运输、司法、行政、广告、艺术等众多领域与人类生活各方面的赋能者。通过在具体应用场景中的调整,人工智能可以满足多样的需求。
(二)双重属性下的人工智能复式立法定位
其一,作为科技法的人工智能法。人工智能活动作为科技活动的一种,应遵守人工智能科技伦理。人工智能法的科技法属性也意味着,我们在规范科技活动的同时应规定适当的科技促进型制度。我国未来的人工智能立法,应规定数据使用规则,适度突破既有的个人信息保护规则、著作权保护规则,满足人工智能训练的数据需求。
其二,作为应用法的人工智能法。人工智能赋能不同应用场景,引发的法律关系并不相同。单一理论是无法规范复杂、多场景的人工智能应用的,如果按照单一理论设计规则,难免会产生规制过严或过松的问题。鉴于人工智能多样的应用场景,人工智能赋能应用规范不应寻求简单的、单一的规范框架,而应充分重视事物的复杂性。
复式立法进路下人工智能规范框架的展开
(一)科技法定位下的人工智能研发伴生性规范
其一,科技伦理义务化。记录是科技系统自我观察与调试的基础。只要人工智能系统具有自我学习能力,研发者就应承担持续的记录义务,以实现对人工智能系统的全生命周期监测。报告义务与记录义务相辅相成,是同一硬币的两面。如果根据记录发现人工智能模型存在错误或缺陷,研发人员应及时向监管机构汇报。
通过算法备案的方式规范人工智能活动,并不符合科技法规范模式。备案可能成为变相的审批,不当干扰科技研发。实践中,部分监管部门以备案之名行审批之实,过度侵蚀科技系统的自主性。更优的路径是强化人工智能开发者的持续记录与报告义务,借助科学系统自身的控制阀门实现治理目标。
其二,建立促进人工智能科技发展的数据制度。数据利用问题是制约人工智能发展的卡脖子问题。首先,人工智能立法可以借助可期待性同意规则,允许合理利用个人数据进行人工智能训练。其次,人工智能立法应借助数据访问权打破数据孤岛,并适当纾解人工智能利用非个人数据的知识产权限制。
(二)应用法定位下的人工智能赋能规制型制度
其一,规范人工智能多场景应用的权利义务机制。首先,人工智能系统相对人的应有权利。人工智能系统相对人的知情权应受法律保护。人工智能相对人应有权了解自己的信息是否在被人工智能系统处理,应有权获知人工智能系统的预设功能、局限性、不良影响等信息。个人在了解相关信息后,是否享有解释请求权、应用拒绝权等权利,则应视场景而定。我国未来的人工智能法还应专门规定请求人工沟通的权利。只有保证个人享有表达意见、获得人为干涉的权利,人才不会沦为机器的客体。
其次,人工智能系统提供者与使用者的不同义务。一方面,人工智能系统提供者应承担特定的法律义务,这些义务包括但不限于信息公开、人工监督、保障系统稳定性等。另一方面,人工智能系统使用者应承担谨慎使用、保存日志等义务。人工智能系统使用者应谨慎使用人工智能系统。如果日志对诊断系统的运行状态和故障是不可或缺的,人工智能系统使用者就有保存相关日志的义务。人工智能系统使用者如果发现人工智能在具体场景中可能产生歧视、侵犯人格尊严等问题,应当暂停使用该系统,并将问题反馈给人工智能系统提供者。如果存在重大隐患,应当同时上报国家监管机构,以防止发生不可逆的后果。
其二,调整人工智能复杂应用活动的实验主义治理。实验主义治理突出体现为一定程度的纵向放权,使得监管机构能够进行监管实验、积累监管经验。监管沙箱是推进实验主义治理的典型设计。监管沙箱是一种由监管机构依据法律规定设立的受控测试环境,在限定时间内允许人工智能系统进行开发与测试。我国未来的人工智能立法应授权监管部门在特定地域与领域设立监管沙箱,从而摆脱“操之过急”或“听之任之”的弊端。监管部门可以根据评估结果,适当调整监管沙箱政策,在摸索中寻找妥适的治理手段。此外,立法还可以通过授权监管机关出台专门规范性文件的方式推行实验主义治理。我国未来的人工智能法可以赋权监管机构出台专门的规范人工智能中小企业的文件,以促进科技创新。
(原文刊载于《中国法学》2024年第5期)