2023-07-14

生成式AI新规亮点:有分寸、重实际、留空间、促发展

作者: 杨建媛 李天烁
2023年7月13日,国家网信办、发改委、教育部等多部委联合发布了《生成式人工智能服务管理暂行办法》(“《办法》”)。相较于《生成式人工智能服务管理办法(征求意见稿)》(“征求意见稿”),《办法》的显著特征如下:
(1)将“坚持发展和安全并重、促进创新和依法治理相结合”作为基本原则,尊重技术发展的历史阶段,从实际出发合理减轻企业的合规负担,定下了助推生成式AI发展的总体基调。
(2)将不少结果性要求放宽为过程性要求,但明确强调合规措施的有效性,有效的合规措施将成为重要生产力助力生成式AI企业成为行业龙头。

本文拟基于海问自行总结的监管架构(见下图),就《办法》相较于征求意见稿的主要迭代亮点作出解读,帮助读者快速掌握生成式AI立法的最终基调。

图片1.png



一、适用范围:明确排除未向境内公众提供服务场景、客观开展外资监管


    我们理解,《办法》将适用范围明确为面向境内公众提供生成式AI服务,体现了保护个人发展、维护国家安全和公共利益的基本考量。基于生成式AI技术的固有缺陷,现有技术条件尚无法避免其生成虚假和有害内容。一旦面向境内公众提供服务,则意味着潜在风险的大规模扩散。此处,问题关键即在于对“公众”的理解。

    (一)内容和技术服务提供者均将受到监管

    不同于《互联网信息服务深度合成管理规定》明确区分了“深度合成服务提供者”和“深度合成服务技术支持者”两类义务主体,《办法》仅规定了“生成式人工智能服务提供者”。鉴于《办法》明确将“通过提供可编程接口等方式”提供服务纳入监管范围,亦对模型训练作出了相应监管要求,因而我们理解,除了直接提供服务的内容服务提供者,技术服务提供者也被涵盖在“生成式人工智能服务提供者”的范围项下。

    至于《办法》未区分技术服务提供者和内容服务提供者的原因,或在于当前尚无法就最终生成内容实现明确的责任分割。当前实践中的业态较为复杂,最终违法内容的生成可能来源于多方因素,区分义务主体的同时即需要在规范层面对违法内容生成责任作出统一划分,但在业务实践快速发展的情况下预设规则难免与实践情况存在冲突之处。因此《办法》对“生成式人工智能服务提供者”作出宽泛定义,实践中的具体责任分配有待个案判定。

    (二)未向境内公众提供服务的研发、自用明确不适用《办法》

    相较于征求意见稿,《办法》新增第2条第三款,明确将企业、教育和科研机构、公共文化机构等研发、应用生成式AI技术,未向境内公众提供生成式AI服务的场景排除在适用范围之外。除了对技术创新具有关键作用的科研领域,生成式AI在企业内部的应用可以大幅提高企业生产效率,对我国数字经济发展具有重要意义。结合我们的项目经验,能够节省成本且提高专业化程度的行业大模型业已成为新的关注热点。

    备受关注的一个问题是:to B服务是否可以豁免适用?解题核心在于如何理解“公众”。中国法语境下,“公众”是一个泛指,涵盖了个人和集体(例如组织、团体等),故解读法条难以直接得出to B服务可以豁免适用的结论。但就具体的场景该如何判断,则值得多推敲,例如:平台只给其上商户提供服务,商户也不会基于此再面向C提供服务,相当于只是平台内嵌的服务工具。此种情况和内部使用较为类似,而与一般的to B服务有所区别。

    (三)将境外服务、外商投资客观纳入监管范畴

    相较于征求意见稿,《办法》新增了外商投资条款,要求其符合外商投资相关法律、行政法规的规定,但目前针对生成式AI的外商投资规定尚不明确。同时,明确规定若境外向境内提供的生成式AI服务违反中国法律、法规、《办法》,国家网信部门应通知有关机构采取技术措施和其他必要措施予以处置,此条既为对监管部门的授权性规定,亦为对提供者的警示性规定。对于“封装”类的境内服务提供者,其境外技术支持存在因合规问题而中断的可能。《办法》明确将对境外服务及外商投资进行监管但视角较为客观,一方面注重针对境内公众、公共利益的全面保护,另一方面也有利于促进国内生成式AI市场的竞争。


    二、模型训练:提出多层次规范体系、数据质量要求更加务实


      《办法》针对模型训练提出多层次规范体系,与生成式AI算法备案中特别关注训练数据相关的合规制度建设一脉相承,原因在于训练数据为生成式AI所特别倚重。《办法》的特有创新规定(数据质量要求、使用具有合法来源的数据和基础模型等)、重点法律的联动规定(知识产权保护、个人信息处理合法等)、相关规范的兜底规定(《网络安全法》《数据安全法》等)共同构成了针对训练数据的多层次规范体系。

      如上文所言,内容和技术服务提供者均为《办法》项下的义务主体,但在模型训练阶段,相关义务责任则仅落于技术服务提供者,该等义务分配与现实情况相符。《办法》第7条明确针对“训练数据处理活动”提出要求,意味着负责模型训练的技术服务提供者应当遵守相应义务并承担责任,而既不参与模型训练、亦不从事训练数据处理活动的内容服务提供者则被排除在外。

      (一)仅就自身训练数据获取这一次流转的合法性负责

      征求意见稿要求“提供者对训练数据来源的合法性负责”,而《办法》第7条将其修改为“使用具有合法来源的数据和基础模型”。对此我们理解,《办法》一方面对“基础模型来源合法”增设要求,另一方面也明确了提供者对“训练数据来源合法”的合规义务边界。

      所谓“数据来源合法”,是指通过合法手段、而非窃取等非法方式获取数据。在征求意见稿中,数据来源合法要求指向训练数据本身,而该训练数据可能历经多次流转,如果其中某次流转存在非法获取的情况(即存在原罪),不排除提供者需为此承担责任的可能。而在《办法》中,数据来源合法要求明确指向本次训练数据使用行为,关注重点聚焦于提供者为使用而获取训练数据这一次流转经历,提供者的责任范围由此得到了限缩。

      除此之外,《办法》提出推动公共训练数据资源平台建设,亦将为“数据来源合法”提供基础保障。《办法》第6条第二款规定,要推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。与之相对,2023年5月23日出台的《北京市促进通用人工智能创新发展的若干措施》中亦提及将从“归集高质量基础训练数据集”、“谋划建设数据训练基地”、“搭建数据集精细化标注众包服务平台”三方面入手,提升高质量数据要素供给能力。随着数据垄断效应的加剧,企业若想合法获取高质量的训练数据集并非易事,而日后公共训练数据集的建立和开放或将有效缓解这一矛盾,降低企业获取具有合法来源的数据的成本。

      不过,深入探究“数据来源合法”的含义,会发现其中亦存在模糊之处。例如,在服务提供者从第三方购买训练数据集的情况下,在数据交易所进行交易是否就必然可被认定为数据来源合法?如果是场外交易,仅靠要求数据提供方作出合规承诺,是否即满足要求?服务提供者事先是否需要进行尽职调查,是否需要数据提供方出示相关凭证以作证明?此类实操问题仍有待实践中进一步明确。

      (二)不再要求对训练数据质量作出保证

      相较于征求意见稿,《办法》对训练数据的质量要求从“保证数据的真实性、准确性、客观性、多样性”软化为了“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。训练数据的质量对于最终生成内容的质量具有重要影响,如果训练数据中即存在大量虚假、有害信息,那最终生成结果也难以言及真实准确,因而有必要对训练数据作出要求。但是,由于模型训练需要海量数据,要求服务提供者对数据质量作出保证不仅会带来高昂的合规成本,亦缺乏可行性。不过还需注意的是,《办法》对数据质量提升措施提出了“有效性”要求,因此仍不可大意相关合规措施的具体落实。

      除此之外,相较于征求意见稿提出的人工标注规则和抽样核验要求,《办法》不仅关注到数据标注不仅限于人工标注的实践情况(实际上多数标注均非人工完成),扩张了数据标注要求的适用范围,还新增设了数据标注质量评估要求。我们理解,日后此项亦将成为安全评估和算法备案的审查要点,建议企业事先作出合规部署。


      三、内容运营管理:内容真实向善为目标、措施要求可落地性增强


        在内容运营管理方面,《办法》具有明确的监管目标,即防范虚假有害、内容向上向善,但在同时,立法者也意识到在当前阶段要求一蹴而就不仅不现实,亦可能将新技术扼杀在摇篮之中,因而选择尊重实际,旨在以循序渐进的方式达到监管目标。例如,《办法》删除了征求意见稿中有关“歧视性内容生成”的禁止性规定,但仍保留了第4条中防歧视的原则性条款,并为此添加“措施有效性”的限定条件,亦即此意。

        (一)放宽生成内容的真实准确要求

        《办法》删除了征求意见稿中争议较大的“生成内容应当真实准确”要求,将其修改为了“提高生成内容的准确性和可靠性”。目前而言,“幻觉”源于大模型的固有技术缺陷,实践中尚且无法避免,在此背景下要求生成内容完全真实准确并不现实,因而《办法》对征求意见稿进行了修改,将结果性要求放宽为过程性要求。与之相对,企业应采取内容审核等合规措施证明其尽到了相应义务。

        例如,OpenAI采用了两种技术方法以降低模型幻觉出现的频率。对于开放域的幻觉,OpenAI收集了ChatGPT被用户标为不真实的现实世界数据,以及用于训练奖励模型的对比标注数据;对于封闭域的幻觉,OpenAI设计了一系列步骤以使用GPT-4自行生成对比数据,并最终将生成结果准确性提升了30%左右。[1]

        (二)删除模型优化训练的效果要求和时间限定

        《办法》要求服务提供者在发现违法内容后采取模型优化训练等措施进行整改,删除了征求意见稿中“3个月内通过模型优化训练等方式防止再次生成”的要求。我们理解,无论是“3个月内”的时间限定,还是“防止再次生成”的效果目标,都对服务提供者提出了较为严苛的技术要求,实践中可能难以落地,所以《办法》对该条款作出了修改。不过另需注意的是,《办法》新增了向主管部门报告的义务要求,对此需要提供者建立相应机制以作回应。


        四、通用运营管理:用户保护更加精细、用户管理契合实践


          在通用运营管理问题上,体系化衔接和精细化处理是《办法》的突出特点。具体而言:《办法》与《个人信息保护法》《互联网信息服务算法推荐管理规定》《网络安全法》等法律规范进行了体系化衔接,并据此作出了更精细、周全的规定。例如,《办法》第11条在依据《个人信息保护法》增设用户行权保障规定的同时,还将不得非法留存用户输入信息的范围从“推断用户身份”限缩为了“识别用户身份”。如下所列要点亦为此理。

          (一)“防依赖沉迷义务”明确指向未成年人用户群体

          征求意见稿第10条规定,提供者应“采取适当措施防范用户过分依赖或沉迷生成内容”,《办法》第10条将该表述修改为提供者应“采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务”。

          具体而言,《办法》从保护对象和措施效果两方面入手,对上述防依赖沉迷义务进行了修订:

          • 从保护对象来看,《办法》将保护对象具体界定为未成年人用户。正如我们在之前的文章生成式AI(二):体系化构建合规指南中所分析,结合《互联网信息服务算法推荐管理规定》的未成年人保护条款进行体系解释,加之未成年人用户心智发育尚不成熟,更容易受到生成式AI影响,建立未成年人保护机制是生成式AI服务防依赖沉迷义务的应然之义。《办法》的规定明确印证了我们的观点。

          • 从措施效果来看,一方面,《办法》将“适当措施”修改为“有效措施”,提高了合规措施的效果标准;另一方面,《办法》将“依赖或沉迷生成内容”修改为“依赖或沉迷生成式人工智能服务”,表述更加精准且合理。因为相较于具体的生成内容,未成年人更可能过度依赖或沉迷于服务功能本身,导致无法充分锻炼独立思考能力,阻碍未成年人的健康成长,当前世界范围内多所学校禁用ChatGPT亦为此理。

          (二)新增服务协议签订义务

          相较于征求意见稿,《办法》第9条要求服务提供者与使用者签订服务协议,明确双方权利义务。目前而言,签订服务协议已成为提供生成式AI服务的实践惯例,该项规定继而将此举从实践惯例上升到了法定义务层面。我们理解,服务协议不仅对划定双方权利义务具有重要意义,亦会落入安全评估、算法备案中用户权益保障情况的审查范畴。对此,我们将结合自身实务经验,在后续推送中专就生成式AI服务法律文本的合规要点作出解读,敬请期待。

          (三)违法行为处置不再限于“暂停或终止服务”

          相较于征求意见稿,《办法》在违法行为处置问题上给服务提供者提供的措施选项不再限于“暂停或终止服务”,新增了“警示、限制功能”等措施选项我们理解,如果一旦发现用户利用服务从事违法或背德行为,无论程度轻重就施以暂停或终止服务的惩戒,未免过于严苛。《办法》给予了服务提供者一定的自主研判空间,使其可以根据用户行为的严重程度施以相应的处置措施,更具合理性。


          五、监管工具:基于风险的分类分级治理


            《办法》采用了基于风险的分类分级监管方法,将服务的舆论属性或社会动员能力作为风险程度的判断标准,要求达到标准的服务提供者进行安全评估和算法备案。相较而言,征求意见稿仅规定在提供生成式AI服务前,应按照相应规定进行安全评估和算法备案——如此存在理解上的分歧:一种理解为凡是提供生成式AI服务即需进行安全评估和算法备案,另一种理解则是,符合相关规定中“具有舆论属性或社会动员能力”条件的生成式AI服务才需进行安全评估和算法备案。《办法》修改了征求意见稿的表述,明确采用了后一种理解,在规范层面上减轻了服务提供者的合规负担。

            《生成式人工智能服务管理暂行办法》

            与征求意见稿对比汇总


            1.png
            2.png
            3.png
            4.png
            5.png
            6.png
            7.png
            8.png


            [1] OpenAI: GPT-4 Technical Report, https://arxiv.org/pdf/2303.08774.pdf

            联系我们
            地址:北京市朝阳区东三环中路5号
            财富金融中心20层(邮编100020)
            电话:+86 10 8560 6888
            传真:+86 10 8560 6999
            邮件:haiwenbj@haiwen-law.com
            地址:上海市南京西路1515号
            静安嘉里中心一座2605室(邮编200040)
            电话:+86 21 6043 5000
            传真:+86 21 5298 5030
            邮件:haiwensh@haiwen-law.com
            地址:香港中环康乐广场8号交易广场 第一期11楼1101-1104室
            电话:+852 3952 2222
            传真:+852 3952 2211
            邮件:haiwenhk@haiwen-law.com
            地址:深圳市福田区中心四路1号
            嘉里建设广场第三座3801室(邮编518048)
            电话:+86 755 8323 6000
            传真:+86 755 8323 0187
            邮件:haiwensz@haiwen-law.com
            地址:成都市高新区交子大道233号
            中海国际中心C座20楼01单元(邮编610041)
            电话:+86 28 6391 8500
            传真:+86 28 6391 8397
            邮件:haiwencd@haiwen-law.com
            地址:海南省海口市美兰区国兴大道5号海南大厦主楼35楼3508-3509房
            电话:+86 898 6536 9667
            传真:+86 898 6536 9667
            邮件:haiwenhn@haiwen-law.com