人工智能立法规制势在必行

随着人工智能的广泛应用,其带来的安全失控、治理失范、隐私失密、法律失效等问题日益凸显,对人工智能进行立法规制已迫在眉睫。如何强化对人工智能潜在风险的前瞻性预防和约束性引导,是立法机关当下应该思考的问题。

人工智能法律空白亟待填补

随着人工智能不断渗入社会生活的方方面面,诸多现有法律无法规制的真空地带亦渐次展现。笔者认为,在完善人工智能相关法律中,有三个方面亟待填补。

机器人主体资格不明。未来的人工智能,将与人类拥有同样规模的神经元网络,届时拥有与人类完全相同甚至更为发达的大脑,人工智能将可能脱离人类意志产生独立意志。此时一个法律问题应运而生,是否可赋予人工智能拟制人格?

欧盟委员会法律事务委员会甚至为此提出了立法动议,建议将自动机器人定位为电子人,并赋予其特定的权利义务,与普通自然人一起课以纳税等义务,并对致害行为承担相应的责任。

主客体二元区分论是现代法理学和民法学的根基,人与物之间有着严格的区分,而一旦人工智能拥有了独立意志,人与物之间不可逾越的鸿沟将被突破,人与物的界限也将变得模糊。于私法主体而言,理性是其区分于物的本质特征,而在特殊的算法之下,人工智能也能做出符合理性经济人预测的选择,从而使人与人工智能的界限趋于模糊。

人工智能民事责任归责不清。传统机器,无论多么精密,出现损害后果时,侵权责任法总能根据归责原则追溯到其设计者或生产者,因其本质只是人类创造出的工具。而人工智能能够完全自主行动,其行为模式系根据数据分析判断而来,并不受人类直接指挥。同时,人工智能系统自身产生的产品瑕疵亦会造成损害,如2007年美国医疗外科手术机器人造成病人不同程度的烧伤、感染等损害,此时是应向机器人的生产厂商追责?还是使用机器人的管理人操作不当?甚至是机器人突破程序设置自发所为?人工智能的不可预测性决定了即使是最细心的编程者亦无法预测人工智能的决策走向,简单将责任归咎于设计者、生产者或销售者,都难以服众,依托现有民事法律对人工智能予以规制,其局限性可见一斑。

人工智能知识产权归属不清。当前,美联社已经将人工智能运用于新闻写作,微软公司的人工智能“小冰”创作的现代诗歌集也已出版发行,此类作品是否拥有传统意义上的著作权?有观点认为,根据世界知识产权组织对作品的定义,只要是独立创作,就应被认定为作品。那么经由人工智能独立创作的生成物,显然应受著作权法的保护。相反观点则认为,该作品并非由自然人创作,且对数据的加工编排并不构成创作。若将其视为受著作权法保护的作品,意味着享有权利,那么相应权利应由谁享有呢?由人工智能自身、其研发者抑或使用者享有?在专利领域亦面临类似困惑。诸如此类均涉及复杂伦理和法律问题,目前尚属立法空白,亟待法律予以明确。

人工智能时代的治理原则

应对人工智能的治理失序,笔者认为,需要构建科学、包容、创新、安全的社会法律秩序。

以安全为核心的多元价值原则。人工智能发展首先应以安全作为核心价值准则。安全是人类社会最为重要的基础性问题。无论人工智能走得多远,脱离了安全,都将成为无本之木、无源之水。而通过法律规制人工智能,以满足人们的安全价值,使其免于匮乏和恐惧,也是法律最为重要的功能。

人工智能应以创新为核心价值准则。人工智能最具价值之处即为其“万物皆可连”的创新性,其海量数据资源与强大的算法逻辑使过去诸多科幻小说成为现实,未来还将创造更多便捷高效的产品。于法律而言,保护其创新性需要以原则性规定为主,预留大幅空间给创新,以避免束缚创新的手脚。同时,保护和鼓励知识产权,通过知识产权保护、权利交易和权利限制等制度,大力扶持知识产权创新企业,促进技术创新和新兴产业发展,使人工智能在安全有序的环境中健康成长。

人工智能应以和谐为终极价值目标。人与自然、人与人工智能和谐发展、共同促进,是人工智能发展高级阶段的根本价值追求。人工智能来源于人类,服务于人类,也应该造福于人类。对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐为基本价值追求。

以伦理为核心的规范原则。“加强科技伦理治理,实现高水平科技自立自强”的价值观是我国人工智能伦理准则的战略支撑之一。2022年3月20日,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》明确提出了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明等五大科技伦理原则。

以技术和法律为主导的风险防控原则。智能社会是风险变数最大的社会。人工智能在给人类带来巨大红利的同时,也带来了“科技异化风险、网络暴力风险、算法歧视风险和非法移动跟踪风险。”人工智能时代的风险防控, 离不开法律和技术的共治。法律规制是最为有效的手段,也是最后一道防线。法律调整人与社会的关系,大量的技术规范需要转化为法律规范,以得到法律的强制力作为保障。比如知识产权保护法在激励创新的同时,也禁止权利滥用,遵循合理保护原则,有效平衡个人利益和社会公共利益。技术规制是人工智能风险防控的有效手段。防范人工智能风险,最为有效的手段即为技术手段,即从源头上预防和设计化解可能产生的风险,通过技术手段阻断风险触发点,以达到规避风险的目的。

加速推进和规范人工智能立法 

如前所述,对人工智能进行立法规制势在必行,但应渐进式完善法律框架。为给科技进步留下足够的立法空间,应对人工智能立法规制采取分步走策略。当下,对人工智能进行立法规制应立足于现有法律,对其进行修改补充,回应已经出现迫切需要解决的问题。

首先,全国人大及其常委会应修改或制定相关法律。民法典人格权编已经将人工智能时代背景下AI换脸、隐私权保护等问题予以明确规制,但对于人工智能是否具有民事主体地位、人工智能侵权责任归责原则、责任划分等问题,民法典并未明确,下一步应当有针对性地对此问题进行修改完善。

笔者认为,在无人驾驶立法规制领域,应当修订道路交通安全法,明确无人驾驶车辆的道路测试、准入登记、使用管理、违章处理、法律责任问题;在人工智能知识产权领域,应修改著作权法、专利权法,对人工智能创作的生成物是否受著作权保护、相关作品的著作权权属、是否承认其垄断地位、机器学习阶段用到受著作权法保护的作品是否构成侵权、保护是否要附加条件、保护期限规定多久较为适宜、人工智能独立设计发明的产品是否应授予专利等问题予以回应;在人工智能犯罪领域,应出台刑法修正案,回应人工智能对刑法人类中心主义的挑战,同时对人工智能犯罪主体的范畴、责任范围、刑罚适用和执行方式等问题作出规制。

其次,国务院应制定人工智能相关行政法规。确立人工智能场景应用标准体系建设规划,作为软性法律,技术标准能够为市场提供统一的参照体系,可吸纳现有试点应用场景的成功经验,根据不同的应用场景,制定不同的技术标准和评估方案,以在技术标准层面确保基本的安全技术规范达标,化解不同应用场景差异化风险治理难题。

可制定自动驾驶、无人机飞行、图像和语音识别、服务机器人、辅助医疗诊断与治疗等应用基础较好的专用领域的安全管理规则,如机器人安全管理条例、智能汽车安全管理条例等,填补相关领域监管空白;明晰人工智能需要创设行政许可的领域,确立行政许可和审批流程,提升监管力度等。 

最后,地方立法机关应制定鼓励人工智能健康发展的地方性法规。人工智能立法应秉持促进性立法与规制性立法并举的原则,国家立法层面应集中于立法规制,地方立法层面则应聚焦于促进人工智能健康发展,充分尊重科学技术发展规律。

地方立法项目可包括有关鼓励、促进人工智能产业发展方面的地方性法规,有关公共电信网络基础设施建设与保护方面的地方性法规,有关促进人工智能在政务、财税、制造、商务、物流、家居、农业、医疗、卫生等领域应用与发展的地方性法规,有关保护人工智能知识产权的地方性法规、涉及人工智能的消费者权益保护方面的地方性法规以及人工智能发展涉及人力资源与社会保障方面的地方性法规等。 (作者 李弸 单位:市人大监察司法委)

 

新闻链接

2023年5月11日,由欧盟委员会提出的《人工智能法案》通过。该法案将人工智能风险分为四类:不可接受的风险、高风险、有限风险和最小风险。

2023年1月26日,美国国家标准与技术研究院发布了《人工智能风险管理框架》,是对人工智能应用程序背景、数据和输入、人工智能模型、任务和输出以及“人与地球”这一特殊维度的人工智能生命周期活动框架。

2022年,广东省深圳市出台了我国首部人工智能产业专项立法——《深圳经济特区人工智能产业促进条例》,预示着我国的人工智能立法日臻完善,以应对以ChatGPT为代表的人工智能的迅猛发展带来的法律风险和伦理道德问题。 

2023年7月10日,我国《生成式人工智能服务管理暂行办法》发布。办法明确我国对生成式人工智能将采取分类分级监管,对其不同服务场景中可能出现的风险及影响从高到低进行排序,根据不同风险等级确定不同的监管措施,明确网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理。该办法对生成式人工智能的境外提供者进行了较大的限制,并对法律责任进行了详细规定,包括对国家秘密、商业秘密、个人隐私的保密义务以及不符合法律规定进行行政处罚的责任等。办法对服务提供者课以较为全面的规范要求,并对使用者的合规要求大大降低,赋予其投诉举报的权利。

与此同时,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》分别从算法治理、深度合成治理等不同层面对人工智能进行了规制。