国际组织WDTA发布大模型安全国际标准,引领行业迈向安全与规范新纪元
艾媒网(iimedia.cn)获悉,4月17日,在瑞士举行的第27届联合国科技大会上,世界数字技术院(WDTA)发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。标准由全球AI科技巨头OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制而成。
《生成式人工智能应用安全测试标准》为测试和验证生成式AI应用的安全性提供了一个框架,特别是那些使用大语言模型(LLM)构建的应用程序。该标准规定了人工智能应用程序架构每一层的测试和验证范围,确保应用程序运行能持续处于安全与规范当中。
《大语言模型安全测试方法》则是针对大模型本身安全制定的,它提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,提供了严格的评估指标和测试程序等帮助大模型研发者与相关企业及时查漏补缺。
全球人工智能热潮的兴起,吸引了众多科技巨头的布局和投入,AI大模型的研发与发布进程可谓日新月异。随着人工智能技术的快速发展,大型模型在各个领域的应用越来越广泛,其通用性和赋能能力为新一代产业革命和社会变革提供了强大的驱动力。
然而,在这一热潮中,行业问题日渐显现。虽然大型模型数量众多,但缺乏统一的标准和规范,这使得整个行业的发展面临着一定的挑战。没有标准,就意味着在模型的开发、训练和应用过程中,各个企业和组织可能采用不同的方法和策略,导致模型的质量和性能参差不齐,难以进行有效的比较和评估。
此外,缺乏标准也可能引发一些潜在的风险和问题。例如,不同的模型可能存在兼容性问题,导致数据无法在不同模型之间有效共享和流通。同时,没有统一的标准也意味着难以对模型的安全性、隐私保护等方面进行有效的监管和保障,这可能会给个人和社会带来潜在的安全隐患。
基于此行业弊端,制定大模型制作的国际标准显得尤为重要。通过制定统一的标准和规范,可以确保大型模型的开发和应用过程更加规范、高效和安全。这不仅可以提高模型的质量和性能,促进整个行业的健康发展,还可以增强公众对人工智能技术的信任度和接受度,推动人工智能技术更广泛应用和普及。
当然,制定大模型制作国际标准是一个复杂而艰巨的任务,需要全球范围内的科技巨头、研究机构、政府部门等各方共同努力和协作。只有通过协同合作,才能制定出符合行业发展需求、具有可操作性和前瞻性的国际标准,为人工智能技术的可持续发展提供有力支撑。本次世界数字技术院(WDTA)发布的这两项国际标准便是全球相关主体协同合作的产物。