收藏我们|设为首页
首页>规划研究所>热点评论
加强我国人工智能产品监管的对策建议
发布时间:2017-09-29 15:25  来源:规划研究所  作者:陆平

 近年来,人工智能发展迅猛,国外有Google、Intel、微软、苹果、特斯拉,我国有百度、腾讯、阿里巴巴等,这些企业纷纷通过自主研发、收购兼并等途径进入人工智能领域。新一代人工智能产品具有高度的自主性、自学习及适应能力等特征,给政府监管带来了新的挑战,传统监管模式已无法很好地适应其发展需求,监管难点主要体现在产品应用的后果与风险预判难、事后责任归属确定难、事前安全风险源管控难等方面。未来可以从几个方面加强对人工智能产品的监管。

一是对人工智能持包容态度,采取渐进式监管创新。人工智能在对经济社会造成巨大促进作用的同时,其存在的潜在风险不容小觑。政府对于人工智能领域的创新应持有包容态度,在迎接人工智能时代到来时,采取渐进方式进行监管创新,以确保监管规则的连续性。对于自动驾驶汽车,应采取包容的监管态度,在试点示范中逐步探索规范相关领域产品、服务及安全标准,倡导企业自律和社会监督。英国政府就提议将将汽车强制险的适用范围扩大到自动驾驶模式,以在驾驶者将汽车控制权完全交给自动驾驶系统时能为其安全提供保障。
二是强制披露智能产品安全信息,明确安全责任体系。为了保障人工智能产品与目标一致并能确保安全控制,监管部门对人工智能研发者应进行认证审批,强制要求其公布或提供与人工智能产品相关的安全信息,比如源代码、训练数据集、第三方测试结果等。在安全责任体系方面,政府可以从人工智能系统的开发者、生产者、销售者、使用者等角度,进行责任体系的设计。人工智能产品一旦出现安全问题,经过合法审批的开发者、生产者等将承担有限责任,而未经过审批的开发者将承担无限责任。用户在使用人工智能产品时,应遵守用户使用准则,如果由不当使用造成危害,用户也将承担相应的责任。
三是掌握关键决策环节,提升人们对人工智能产品的信任度。为了提高人们对人工智能产品的信任度,限制其自主度和智能水平是有必要的,至少要让人们在心理上认为其拥有对人工智能产品的主导控制能力。一些传统装备(如汽车、高铁)虽然在速度上已经实现超越,但人们并不认为它是不安全的,因为人们对这些装备的认识和理解足够深入,认为能够驾驭得了,即拥有绝对的控制力。建议根据不同领域特点,定向发挥人工智能的某项特定优势或技能。比如,让数据分析处理等能力成为人们辅助决策的工具,但最终决策权仍需掌握在人们手中。这也是当前阶段提升人们对人工智能产品信任度的关键。
四是根据学习与适应能力特征,实现监管边界动态化。由于人工智能产品通常都具备自主学习和适应能力,现有监管方法难以适用于不断进化的人工智能系统,监管部门应当根据人工智能系统源代码,以及人工智能在测试环境的表现,从学习力、适应力等角度,对人工智能系统进行定期界定,判断其进化速度和所达到的程度,进而实现人工智能的监管边界动态化,使人工智能处于可控、安全的发展范围之内。
五是加入自我终结机制,防范系统性失控风险。人工智能最大的威胁是当前人类尚难以理解其决策行为,未来失控的风险较大,而一旦失控则后果严重。正如衰老机制是内嵌于所有生命体中的必然,人工智能应该也存在自我毁灭机制,其否定该机制等同于否定其自身存在。可借鉴2016年Google公司提出要给人工智能系统安装“切断开关”的想法,相当于在其内部强制加入某种自我终结机制,一旦常规监管手段失效,还能够触发其自我终结机制,从而使其始终处于人们监管范围之内,能够防范系统性失控风险。
 
智库介绍

        赛迪智库是中国工业和信息化领域的知名思想库,直属于国家工业和信息化部中国电子信息产业发展研究院。自成立二十余年以来,秉承“面向政府,服务决策”的宗旨,赛迪智库专业从事软科学研究工作....[详细]

免费空间赞助商: VPS测评 | VPS技巧 | LocVPS | 51IDC | YardVPS | SEO | MD5 | 网赚 | HHVM | DreamSpark | SiteMap | noFrev |
组织机构