欧盟人工智能法律草案遭遇冲击?法德意异议大模型监管

艾媒咨询|2023年中国AIGC行业发展研究报告

随着人工智能技术的不断发展,AIGC技术也日益成熟,广泛应用于更多领域,其广阔的应用前景将推动AIGC市场规模快速增长。艾媒咨询预测,预计2023年中国AIGC核心市场规模将达79.3亿元,2028年将达2767.4亿元。

艾媒咨询|2023年中国AIGC行业发展研究报告 精品决策
中国ChatGPT及AIGC消费者行为洞察数据 中国ChatGPT及AIGC消费者行为洞察数据 科技消费 用数据说话

  就在欧盟《人工智能法案》落地只差最后一公里时,内部出现了不同声音。

  近日,据报道,一份联合文件显示法国、德国、意大利就如何监管人工智能达成协议。三个欧洲重要经济体一致认为,《人工智能法案》不应针对基础模型,欧洲需要“一个促进创新和竞争的监管框架,以便欧洲参与者能在全球人工智能变革中位于前列。

  法德意的发难,似乎让他们站在了欧洲议会立法者的对立面——后者希望严格监管基础模型。

  欧盟《人工智能法案》是全球首部人工智能的法律草案,正处于立法程序的最后阶段。受访专家指出,当前核心分歧是基础模型的监管方式,各方应该在12月6日的三方谈判上提出解决方案。如果届时无法达成共识,《人工智能法案》落地或面临压力。

  反对分级监管模型

  法德意发布的文件首先指出,人工智能的本质风险是应用,而不是技术本身,由此“反对基础模型的两层分级方法”。

  “两层分级方法”指的是《人工智能法案》中,将人工智能系统划分为不同的风险组,规定不同的合规义务。一些义务仅适用于算力更强、更通用的大模型,从而产生了一套两层规则。三个国家在文件中明确要求对基础模型放弃这套规则。

  模型卡是他们提出的替代方案。模型卡的内容必须包含模型的功能和缺陷。根据文件示例,具体有模型参数量、预期用途、潜在限制、偏见测试结果,以及红队安全评估结果。

  此外,联合文件还呼吁自愿承诺、延迟建立制裁。法德意三国都赞成,AI提供商应做出具有约束力的自愿承诺,且最初不实施任何制裁措施。文件提到,只有在一定时间后发现违规行为,再建立明确的制裁机制。

  《人工智能法案》授权草案于今年6月高票通过欧洲议会,目前已经进入成员国、欧洲议会、欧盟委员会的“三方谈判”,原计划年底前通过。

  据了解,三方本在10月24日就分级监管模型达成了初步共识,但包括法国、德国、意大利在内的至少五个成员国改变立场,提出不应对基础模型施加任何监管;10月30日,法德意三国在意大利首都罗马举行高级别会议,决定加强人工智能领域合作;本月19日,法德意开始分发非正式文件,再次转变监管立场,提出用模型卡来监管基础模型。关于《人工智能法案》的谈判仍在继续。

  核心矛盾在基础模型

  同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦分析,联合文件与《人工智能法案》立法谈判其他各方的实质性矛盾集中于一点——如何监管、由谁监管基础模型。

  对于基础模型,《人工智能法案》始终主张风险分级,但与联合文件的风险识别思路有很大不同。北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,整体来看,《人工智能法案》强调前置、抽象的风险判定,而联合文件强调后置、实际的风险判定。

  落到具体层面,模型卡可能涉及主体更少,合规义务更轻。朱悦认为,早先三方谈判中达成的分级监管,涵盖了数据治理、红蓝对抗等实质性义务。而以透明义务和行为守则为核心的模型卡,更多属于一种弱强制性的自律监管。对外经济贸易大学数字经济与法律创新研究中心主任张欣补充,模型卡主要针对基础模型的开发者,分级监管则面向整个人工智能系统的开发者、部署者、运行者。不过,“分级监管确实存在一定挑战,比如未来步入真正的通用人工智能(AGI)阶段时,可能有分级标准难设定、风险动态变化的挑战。又比如,在现有方案下,可能导致基础模型的开发者承担较多连带义务和责任。”张欣说。

  张欣向21记者进一步解释,模型卡类似于基础模型说明书,示例中的安全测试、偏见测试类似出厂前的产品测试。如果按照早先《人工智能法案》规定的分级监管,落在高风险区域的大模型相关主体,还需要履行一系列备案、纠正、标识等合规义务,负担可能远远大于模型卡。

  一个更关键的问题也许是,谁来决定模型卡的严格程度,以及谁来执行。

  在朱悦看来,不能简单断言模型卡和分级监管之间有本质差别。如果模型卡配置了详细、深入的可解释性条目,其依然可以称为一种深入的监管。但如果模型卡不是交给专门监管机关或者数据保护机关,而是主要由行业协会或者技术社区来评估和执行,自由度就会相对充裕。

  此外,联合文件中的自愿承诺也值得注意。张欣表示,“一般情况下,如果要求企业自我承诺,那么违背承诺时执法机关会采取相应的处罚措施。”但联合文件提议推迟制裁,并没有进一步明确到底要如何建立强制性、有约束力的自我承诺机制。

  受访专家均认同,联合文件旨在为基础模型的开发者松土

  一个值得关注的时间点是今年10月。就在这个月,巴黎的初创公司Mistral AI发布了自己的大模型Mistral 7B,据称性能超过Meta 的 Llama 2大模型,且算力耗费更少,一举成为人工智能领域一颗冉冉上升的新星。与此同时,德国的AI领头公司 Aleph Alpha GmbH 也获得了超过5亿美元的B轮融资,官网自称“德国自己的OpenAI”。

  除了本国冠军企业的大模型发展迅速,政府面临游说压力外,法德意也有布局人工智能的国家性战略。今年6月,法国总统马克龙宣布要推动法国成为欧洲的AI中心,划拨5亿欧元发展人工智能。德国数字事务部长则在近期采访中,将德国定位为“进入全球人工智能领域最高梯队竞争”,发展野心可见一隅。

  《AI法案》或踩下刹车

  法德意此时叫板,最令人关心的问题无疑是:《人工智能法案》还能顺利落地吗?

  张欣表示,目前难以预料联合文件的实质影响,但它的确为《人工智能法案》达成共识增加了不确定性。

  在朱悦看来,达成共识的可能性很大。主要依据是各方已经初步达成了共识——同意一定程度上监管基础模型,只是在概念、时限和其他一些关键细节上需要博弈。另外,从谈判过程来看,相关主体的态度在不断软化。根据朱悦的分析,此次发难的策略性性质较强,即为了针对特定的条款争取谈判筹码,并不是关于《人工智能法案》是否应该通过的分歧。

  “如果能够达成妥协,《人工智能法案》可能放弃对基础模型的进一步分级,通过细化透明项目、补强审计义务和关联产品责任等方式做实透明义务,放弃其他绝大部分的实质要求。可以说是一种差强人意的方案。”朱悦表示。

  在后续的执行过程中,《人工智能法案》也存在进一步松绑的可能性。吴沈括向21记者指出,联合文件立场更市场友好,因此各成员国在贯彻执行《人工智能法案》时,可能有本地化松绑的动作。张欣对此的担忧是,模型性能强大,更多未知风险会与大模型涌现能力一同出现。而且在开发热潮下,资本逐利可能带来模型异化的风险。以上种种都要求对基础模型进行更系统的硬法规制。

  通过《人工智能法案》的机会之窗正在快速关闭,12月6日将是一个关键的时间点。

  考虑到欧洲议会将在明年6月换届,今年12月6日的三方谈判可以视作《人工智能法案》立法谈判的收尾。欧洲媒体透露,越来越多的成员国认为《人工智能法案》监管过度。如果无法尽快找到解决方案,立法将面临风险。

  朱悦表示,“《人工智能法案》之前的谈判进程确实太快了,理事会和其他各方内部并没有达到高度一致。之前达成的所有共识,都是一种脆弱而精细的平衡。”而这份脆弱、精细的平衡,接下来随时都有可能打破。

艾媒咨询|2023年中国AIGC行业发展研究报告

随着人工智能技术的不断发展,AIGC技术也日益成熟,广泛应用于更多领域,其广阔的应用前景将推动AIGC市场规模快速增长。艾媒咨询预测,预计2023年中国AIGC核心市场规模将达79.3亿元,2028年将达2767.4亿元。

艾媒咨询|2023年中国AIGC行业发展研究报告 精品决策
中国ChatGPT及AIGC消费者行为洞察数据 中国ChatGPT及AIGC消费者行为洞察数据 科技消费 用数据说话