会员登录 立即注册

搜索

[切换城市]

人工智能安全治理框架“鼓励创新”

新资讯 2024-9-10 20:02 北京商报 4 0

人工智能是人类发展新领域,给世界带来巨大机遇,也带来了各类风险挑战。99日,全国网络安全标准化技术委员会制定的《人工智能安全治理框架》1.0版(以下简称《框架》)对外公开发布。《框架》将人工智能安全风险按内生安全和应用安全分类,并给出相应的技术应对措施。围绕鼓励创新,对人工智能研发及应用采取包容态度”“快速动态精准调整治理措施”“明确主体安全责任”“共享最佳实践的原则,《框架》推动各方就人工智能安全治理达成共识,促进人工智能安全有序发展。



《框架》提出,人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当使用、滥用甚至恶意利用带来的安全风险。


其中人工智能内生安全风险包括模型算法安全风险、数据安全风险、系统安全风险。人工智能应用安全风险包括网络域安全风险、现实域安全风险、认知域安全风险和伦理域安全风险。


上述风险中模型算法安全风险的篇幅最长,共细化成六方面:可解释性差;偏见、歧视;鲁棒性弱;被窃取、篡改;输出不可靠;对坑攻击。以排在第一位的可解释性差为例,此风险是指以深度学习为代表的人工智能算法内部运行逻辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如有异常难以快速修正和溯源追责。


针对此类风险,《框架》指出要不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结果的过程。在设计、研发、部署、维护过程中建立并实践安全开发规范,尽可能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。


让大模型给出的结果更精准,是大模型落地到企业端的基础,可见治理此类风险对整个行业的重要性。


在和北京商报记者交流时,枫清科技创始人兼CEO高雪峰表示,大模型在企业落地时会遇到一系列问题,主要是因为大模型自身的局限性、黑箱问题以及数据或者知识的问题,由于大模型的复杂性过高,涉及大量参数和层,使得可解释性变得更加困难,推理过程不透明,往往是基于大量参数网络的序列预测。大模型生成内容的逻辑与依据很难给出相应的解释,或者是其内容生成的概率分布,人们无法理解,即使是专业研究人员也很难理解模型是如何得出某个结论的,普通用户更难以理解模型为什么输出这样的内容,高雪峰详细说。


全国网络安全标准化技术委员会秘书处主要负责人表示,《框架》的发布,对推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。


北京商报记者 魏蔚


声明:发布此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请联系我们,确认后马上更正或删除,谢谢!
新资讯(www.xinzixun.cn)致力于为用户提供高效、便捷的资讯获取与信息服务,打造一个有影响力的多元化资讯平台。
关于我们
公司介绍
发展历程
联系我们
本站站务
服务协议
本站义务
友情链接
业务合作
广告服务
商家入驻
我要投稿

手机APP

官方微博

官方微信

新资讯:www.xinzixun.cn (盛世汇新旗下网站) 陇ICP备17005351号-5|甘公网安备 62012102000363号 客服邮箱:sshxqy@163.com 投稿邮箱:sshxqy@126.com
QQ|Powered by Discuz! X3.5 © 2001-2024 Discuz! Team.
返回顶部