《人工智能法(学者建议稿)》发布,权益保障、产业发展为当前法学界AI治理研究焦点问题

艾媒咨询|2023年中国AIGC行业发展研究报告

随着人工智能技术的不断发展,AIGC技术也日益成熟,广泛应用于更多领域,其广阔的应用前景将推动AIGC市场规模快速增长。艾媒咨询预测,预计2023年中国AIGC核心市场规模将达79.3亿元,2028年将达2767.4亿元。

艾媒咨询|2023年中国AIGC行业发展研究报告 精品决策
中国ChatGPT及AIGC消费者行为洞察数据 中国ChatGPT及AIGC消费者行为洞察数据 科技消费 用数据说话

  2024年3月16日上午,“AI善治论坛 人工智能法律治理前瞻”专题研讨会在北京举办。会上,由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院、北京航空航天大学法学院等单位专家联合起草的《中华人民共和国人工智能法(学者建议稿)》(以下简称“建议稿”)正式发布。

  自从2022年人工智能大模型热潮兴起以来,在深刻影响科技发展、积极与现有产业融合的同时,技术的高速迭代也衍生出多重治理问题。在本次研讨会上,多位专家学者在介绍建议稿条款内容的同时,也根据自身的研究内容和产业实践中出现的具体问题提出了自己的观点。从这些发言与观点,亦可一窥当前人工智能产业发展面临的不同层次问题,以及在法律层面对其进行治理的多元化思路。

  监管应以人的要素为中心

  纵观本轮人工智能发展浪潮中社会关注的焦点问题,除技术发展问题外,个人信息保护、AI是否会取代人类、知识产权保护等问题,均与人在和AI相处中的权益保护息息相关。本次研讨会上,多位与会专家在发言中也提到,当前对AI的治理需围绕人类在数字社会的基本权益保障展开,强调科技伦理对技术发展中衍生出的各类问题的预防和抑制作用。

  例如在本次发布的建议稿中,第三章就重点提及了“使用者权益保护”。北京航空航天大学法学院院长助理、副教授赵精武在介绍相关内容时表示,其中蕴含的治理思路包括:

  一是将平等权作为使用者权益保护的首项权利,能够预防“唯数据主义”导致的人工智能产品、服务被应用于不合理、不科学的社会群体分类目的;二是将知情权作为使用者权益保护的重要内容之一,因为该项权利是使用者行使其他权利的前提条件;三是正面回应生成内容知识产权问题,采用“按照贡献程度”的动态认定模式明确相关的权利主体,并明确否定了人工智能作为权利主体的可能性;四是关注劳动者和数字弱势群体权益保护,明确规定禁止用人单位侵害劳动者的合法权益,尤其是利用人工智能技术对劳动者的工作情况开展不合理、不合法的监控活动。

  中南财经政法大学知识产权研究中心徐小奔副教授则重点强调人工智能开发者与提供者的义务与规范,他指出,建议稿中重点区分了一般人工智能和关键人工智能,强调关键人工智能需要在组织机构、风险评估、风险披露、安全应急处理等方面所应该承担的关键义务,同时应该在不同行业领域对关键人工智能作出特别规范。

  北京大学法学院副院长、副教授戴昕则认为,要建设比较客观的认知环境,使用户或者公众理解如何规范应用人工智能。如果有风险,应当明确风险的具体指向。此外,可以结合保险机制设计责任救济制度,在结合保险与合规免责的基础上,可以考虑运行成本更低的严格责任,避免人工智能领域过错责任认定带来的复杂问题。

  以治理推动发展

  除了在数字化时代保障个人权益外,当前人工智能治理的一大重点方向是促进技术的进一步发展与应用。有别于此前其他技术革新,人工智能发展既有赖于数据的累积和算法的迭代,也需要在实际应用中找到与人类社会的结合点,通过更广泛地应用实现自我进化。因此,在当前的治理思路下,如何兼顾合规与发展,是规范人工智能产业发展的关键问题。

  中国政法大学数据法治研究院教授张凌寒表示,目前全球激烈竞争的格局下,“不发展是最大的不安全”。我国人工智能产业“领先的追赶者”的独特国际生态位要求我们在技术和产业的国际竞争中必须以发展为制度设计的主要目标,安全问题也需要通过技术发展来回应和解决。

  结合建议法第五章“监督管理”内容,中国信通院政策与经济研究所高级工程师程莹表示,可以从以下三方面构建相关管理体系:其一,建立人工智能监管统筹协调机制,发挥其在战略规划、风险管控、规则制定、社会服务体系建立等方面的总体协调作用;其二,建立分级分类监管制度,根据技术发展、行业领域、应用场景等因素动态调整人工智能分级分类标准;其三,完善监管沙箱试点制度,一方面在准入条件、风险评估、审计、法律责任等方面给予主体相应便利、激励或者责任减免,为人工智能技术产业发展提供宽松环境;另一方面加强风险管控和评估评测,统筹建立国家人工智能评估评测平台,发挥多元协同力量。

  “在把控风险的同时,也要促进人工智能发展。” 中国人民大学未来法治研究院执行院长、法学院副教授张吉豫认为,事前的科技伦理审查确有必要,但可以考虑删除一些不必要的事前义务。对于所有大型基础模型未来是否都进行较严的监管是需要考虑的,并非所有人工智能均需要备案,备案是进入市场的前置要求还是仅为一项待完成的任务有待思考。从促发展的角度而言,监管行为本身的规范也是比较重要的方面。

  中国社会科学院大学互联网法治研究中心执行主任刘晓春则建议,一方面,在立法上构建支撑人工智能发展的促进型基础设施,例如建立促进高质量数据集合的生产和获取、促进算力资源优化分配的基础机制等;另一方面,在承担加重义务的特定类型人工智能部分,例如关键人工智能、通用人工智能、特殊类型人工智能等,建议明确科学、清晰、风险导向的基础概念和类型,为人工智能产业快速健康发展树立具有较强确定性的规则和责任机制。

艾媒咨询|2023年中国AIGC行业发展研究报告

随着人工智能技术的不断发展,AIGC技术也日益成熟,广泛应用于更多领域,其广阔的应用前景将推动AIGC市场规模快速增长。艾媒咨询预测,预计2023年中国AIGC核心市场规模将达79.3亿元,2028年将达2767.4亿元。

艾媒咨询|2023年中国AIGC行业发展研究报告 精品决策
中国ChatGPT及AIGC消费者行为洞察数据 中国ChatGPT及AIGC消费者行为洞察数据 科技消费 用数据说话