人工智能时代传统侵权法失灵?产业链各方主体责任分配成实践难题

艾媒咨询|2023年中国AIGC行业发展研究报告

随着人工智能技术的不断发展,AIGC技术也日益成熟,广泛应用于更多领域,其广阔的应用前景将推动AIGC市场规模快速增长。艾媒咨询预测,预计2023年中国AIGC核心市场规模将达79.3亿元,2028年将达2767.4亿元。

艾媒咨询|2023年中国AIGC行业发展研究报告 精品决策
中国ChatGPT及AIGC消费者行为洞察数据 中国ChatGPT及AIGC消费者行为洞察数据 科技消费 用数据说话

  人工智能无疑被视为未来经济社会发展的新动能,技术迭代与产业应用成为近两年来最大的看点。但在产业变革同时,人工智能带来的风险逐步引起重视。“AIGC平台侵权案”、“AI声音侵权案”、“AI生成图片著作权纠纷案”等案件开始涌向司法领域。

  不过,与互联网时代不同,人工智能涉及的侵权问题更为复杂,通用模型提供者与垂直模型提供者以及产品运营者,其角色不尽相同,承担的责任该如何厘清,是适用技术中立性亦或者是承担侵权责任?此外,随着应用普及,庞大的用户群体应确立何种权利义务?

  近期,由广东财经大学、中国人民大学民商事法律科学研究中心和东亚侵权法学会共同主办的人工智能发展与侵权法论坛召开,来自中国(包括中国香港、中国台湾)、英国、澳大利亚、日本、韩国的专家学者、行业代表围绕人工智能各主体的责任义务分配核心问题展开探讨。

  侵权主体责任难以划分,传统侵权法是否仍适用?

  “人工智能有自己的大脑,有自己的思考,因此这会给目前侵权法律体系带来一些挑战”,牛津大学法学院教授Donal Nolan说道。他认为,在存在人为过失的情形下,“人”要为操作失误造成的损害承担责任。但由于人工智能系统具有自主性和不透明性,使得确认人的过失存在难度。开发者和运营方造成的任何侵权需承担责任,但在某些情况下确权困难。

  Nolan还表示,目前立法往往滞后于技术发展,举证因果关系较难确认。定义合理机器人的标准存在困难,不同标准可能带来一致性挑战。在归责方面,无论适用过错原则还是严格责任原则都存在确权、举证、责任对比、标准选择等方面的不足。 

  广州互联网法院院长宋伟莉从司法实务角度指出,现有的裁判标准主要是基于人类的行为和主观过错再加上因果关系,但人工智能系统的行为和决策具有自主性和不可预测性,难以用传统的过错责任原则进行裁定,传统法律中的过错责任要求侵权主体具备主观上的过错,而人工智能系统没有主观意图,其行为由算法和数据驱动,当人工智能系统自主运行过程中造成损害的时候,责任由谁来承担?是开发者、使用者还是其他的相关主体?

  她进一步解释,人工智能的决策和行为通常依赖于大量的数据,这些数据的来源、质量和处理方式直接影响算法所输出的结果,因此在具体的案件当中,确定这些数据的真实性、合法性、关联性是一个关键问题。训练数据的偏差可能导致算法产生启示性的结果,如果不是深入了解数据的来源和处理过程很难判断算法行为的合法性和合理性。 

  人工智能时代传统侵权法是否应做出改变?广东财经大学特聘教授杨立新有不同的观点,他认为,人工智能产生侵权责任时,无论是规制它,还是发生损害要承担责任,总结就是两个问题,要么是人的责任,要么就是物的责任。人的责任应该是传统的过失责任,物的责任则是人工智能产品的责任。一个用过错责任,一个用产品责任,完全可以解决。

  中国人民大学法学院教授姚辉也认为,人工智能侵权问题仍可在现有侵权法框架内解决,因为侵权客体(权利)没有根本改变;损害类型仍在传统范畴内,主要侵害人格权、知识产权、个人信息等;此外,规则和原则仍围绕过错责任、过错推定和无过错责任展开。

  人工智能产业链复杂 归责精准性受挑战

  法律体系的修改盘根错节,眼下给出更为现实的解法或许是一个优质选择,但这并非易事。

  与互联网时代强调平台主体责任的治理范式不同,生成式人工智能有着极为复杂的产业链,涉及模型开发者、部署者、专业用户、个体用户、接受者以及第三方服务提供商等多个主体,归责的精准性受到挑战。

  因此需要对人工智能的类型作区分,不同的类型所导致的提供者的侵权责任不尽相同。

  中山大学法学院副教授谢琳认为,人工智能要区分通用用途和特定用途,承担不同的责任。

  “如果要求通用用途的提供者对接入的特定用途保持与实施特定用途一方同等的注意义务,这可能会导致通用用途的提供者过度谨慎,从而抑制创新(寒蝉效应)。”谢琳表示,最终决定人工智能用途的是下游的特定用途提供者,下游的特定用途提供者应当采取技术措施,以确保人工智能更好地适应其特定任务的需求。

  因此,上游的通用人工智能服务提供者只需要承担透明度义务,即上游的通用人工智能服务提供者向下游的提供者提供充分的信息,以确保他们充分理解该大模型及其功能,协助下游的提供者设计出符合其安全功能的产品。

  明晰主体责任 应兼顾各方利益

  合理划分人工智能主体责任,不仅关系各主体权利保障,也事关产业发展。

  广州互联网法院法官林北征指出,生成式人工智能引发的侵权法上的问题,涉及非常复杂的技术过程和多主体参与的程序。这使得服务提供者的侵权认定问题难以用传统的直接侵权和间接侵权二分法的思路来妥帖解决,可以强调传统侵权责任法中注意义务在裁判案件中的作用

  他认为,注意义务有法律可拓展性、技术可兼容性和成本可负担性等优势,现阶段可通过提示义务和行为致害后果的避免义务来实现。最后林北征还表示,考虑到生成式人工智能产业正处于发展的初期,需要兼顾权利保障和产业发展,不宜过度加重服务提供者的义务

  当下,“不发展就是最大的不安全”,如何在守住安全底线情况下,合理分配人工智能主体责任,让人工智能服务提供者履行合理、可负担的义务,达到创新与保护包容?

  广东财经大学法学院教授姚志伟认为,应当区分人工智能是信息服务还是产品服务,信息服务应遵循过错责任原则,并适用类避风港规则,有责任豁免机制。

  “生成式人工智能服务者可以通过安全投入来换取责任的豁免,比如建立通知渠道、采取必要措施、履行管理义务和进行标识等,这些也是生成式人工智能服务提供者的注意义务。”姚志伟指出,在服务涉及侵权时,生成式人工智能服务提供者履行了这些义务,就可以免除赔偿责任。当然,如果明知或应知服务侵权而不采取必要措施停止生成或停止传输时,则不能免责。 

  广东财经大学特聘教授杨立新以人工智能绘画工具提供者侵害原创著作权为例,他指出,人工智能绘画工具从开发到运行存在多个主体,被侵权人可要求提供者承担侵权责任,提供者承担赔偿责任后可向有过错的第三人追偿。当人工智能绘画工具网站在页面提供生成作品的上传服务,利用者和其他网络用户在平台网络上传生成作品或者其他作品发生原创著作权争议的,应参照适用《电子商务法》规定的“避风港原则”和“红旗原则”,但需满足以下两个主体身份:人工智能绘画工具提供者的身份应当是电子商务平台经营者,认为自己权利受到侵害的原创著作权人身份应当是权利人。

  南京师范大学法学院教授梁志文指出,问答式的生成式人工智能,在某种程度上与搜索引擎类似,它在向提问者提供一个答案。但又与搜索引擎有着本质上的不同。搜索引擎提供的是指向第三方网站的链接,而生成式人工智能则直接提供内容。梁志文认为,生成式人工智能服务提供者本质上是一种网络技术服务提供者,而非内容的生产者,因此其可以进入“避风港”。“作为大模型开发者,应负有的义务除了在提示词过滤的过程中通过合同的约定、技术的回应,比如机器遗忘的技术等,最后要做一个标识的义务。如果履行了这样的义务,那么就可以作为一个免责的事由。”他说。

  庞大的用户群体使用AI是否应担责?

  侵权责任不限于人工智能产品的提供商,在人工智能快速应用的当下,使用者的主体责任也越发受到重视。

  对于由AI的操作引起第三方遭受损失的情况,东京大学名誉教授道垣内弘人表示,当人工智能系统出现故障并造成伤害时,如手术机器人在手术期间错误激活防抖机制或自动驾驶汽车启动制动系统,若人工智能的使用被认为是不适当的,用户应对由此造成的损害负责。

  “从传统意义上来讲,人工智能产品使用者作为消费者一般情况下是不应该承担任何责任的。”谢琳说道,但随着自适应性人工智能的出现,使用者也会参与到数据训练里,需要承担相应责任。例如一些公司的人事系统在招聘应聘者时会引入模型,自己输入数据进行训练,训练后再去招聘应聘者,这种情况下使用者便参与到数据训练当中。即便是一些很普通的消费者,如ChatGPT的使用者在每次输入时,也会对该模型进行纠偏。

艾媒咨询|2023年中国AIGC行业发展研究报告

随着人工智能技术的不断发展,AIGC技术也日益成熟,广泛应用于更多领域,其广阔的应用前景将推动AIGC市场规模快速增长。艾媒咨询预测,预计2023年中国AIGC核心市场规模将达79.3亿元,2028年将达2767.4亿元。

艾媒咨询|2023年中国AIGC行业发展研究报告 精品决策
中国ChatGPT及AIGC消费者行为洞察数据 中国ChatGPT及AIGC消费者行为洞察数据 科技消费 用数据说话