人工智能论文范例参考(最新资料5篇)(2)
第三篇
题目:人工智能犯罪的理论与立法问题初探
摘要:人工智能的发展预警了可能的社会风险, 人工智能犯罪更是为刑法理论和立法提出了新的命题。在理论层面, 人工智能犯罪面临主体层面、罪过层面和行为层面的难题, 目前应基于以自然人为核心的理论路径予以回应, 并为人工智能的法律拟制预留必要的空间。在立法层面, 应在注重立法前瞻性的基础上构建科学的人工智能犯罪规范体系。
关键词:人工智能犯罪; 主体难题; 罪过难题; 行为难题; 理论立场; 立法展望;
现代技术发展所带来的社会问题越来越突显, 如何对技术进行有效控制和反思愈发成为各个领域所关注的重要问题。在互联网不断发展的基础上, 多功能互动、人工智能、虚拟世界、注意力经济、在线视频等各方面的科学技能不断改进【2】。特别是近半个世纪以来人工智能飞速发展, 带来一系列的法律问题。在人工智能逐渐完善的过程中, 其所涉及的法律问题也开始由民事领域、知识产权领域向刑事领域转向。2017年9月22日, 绍兴市公安机关破获全国首例利用人工智能技术实施的"特大侵犯公民个人信息案";, 即"全国首例利用AI犯罪案";, 利用人工智能犯罪活动已开始在我国出现。但是人工智能犯罪究竟带来何种新的刑法命
题与难题?现有刑法理论又该秉持何种态度?目前国内尚缺乏关于这一问题的专门研究, 一些基本问题亟需厘清, 进而契合相关犯罪的治理需要。
一、风险语境下的人工智能
对社会风险的权衡与回应始终是刑事立法所需关切的理论与现实命题, 人工智能技术的发展延伸了社会风险的图景, 也为刑法带来新的难题。
1. 人工智能的发展与风险
人工智能(Artificial Intelligence, 简称AI) 这一概念的出现一般认为可以追溯至1956年。此后, 随着人工智能概念的不断发展, 学界也在努力对其做出精确的界定。较具代表性的是从类人、理性、思维、行为这4个方面给出的定义。有学者进而认为可以从"能力";和"学科";两个方面给出人工智能的解释:从能力的角度看, 人工智能是指用人工的方法在机器(计算机) 上实现的智能;从学科的角度看, 人工智能是一门研究如何构造智能机器或智能系统, 使它能够模拟、延伸和扩展人类智能的学科。根据诸多学者对于人工智能的界定, 人工智能是人为创造的智慧, 即在计算机或其他设备上模拟人类思维的软件系统。笔者认为, 以上界定大都肯定人工智能这一核心内涵:即人工智能是基于人类的设定或要求, 通过计算机信息系统实施一定智能行动的实体或程序。
随着人工智能技术的发展和完善, 其智能水平和社会意义也愈发彰显。美国国家科学技术委员会、美国网络和信息技术研发小组委员会2016年10月公布的《美国国家人工智
能研究和发展战略计划》指出, AI系统在专业任务上的表现经常胜于人类。AI首次超越人类表现的主要里程碑包括:国际象棋(1997年) 、Trivia (2011年) 、Atari游戏(2013年) 、图像识别(2015年) 、语音识别(2015年) 和Go (即AlphaGo围棋, 2016年) 。人工智能的社会应用也愈发广泛, 如在医疗领域、人工智能软件特别是包含机器学习的软件、其提供了无需基于规则编程的数据学习的能力、可以简化将微量元素从初始化到市场化的过程。目前其应用领域包括博弈、自动推理与定理证明、专家系统、自然语言理解、模拟人的性能、规划与机器人、AI语言和环境、机器学习、神经网络与遗传算法、AI与哲学等。我国也正在逐步推广和应用人工智能, 其普及和发展已经在相当程度上改变着社会的发展和人们的认知。
但是, 人工智能的发展也伴随着莫大的风险。如美国自动驾驶汽车特斯拉频频出事故:2016年5月间, 在佛罗里达的一条高速公路上, 一辆开启了Autopilot模式的特斯拉发生了车祸, 致驾驶员死亡;2016年6月至8月间, 特斯拉的自动驾驶汽车也屡屡发生车祸造成车主与其他人员伤亡。2016年9月, 央视《法治在线》栏目曝光了特斯拉自动驾驶在中国出现首例死亡事故, 特斯拉处于"定速";的状态, 并未能识别躲闪而撞上前车。而2015年7月英国《金融时报》报道的大众机器人"杀人事件";中, 大众承包商的一名工作人员不幸身亡, 事发时其正与同事一起安装机器人, 但机器人却突然抓住他的胸部, 然后把他重重地压向一块金属板, 最终导致这名工作人员因伤重不治身亡。新技术经常引起公众的焦虑, 但人工智能进步带来的影
响尤为显著。就人工智能的风险, 2015年霍金等签发公开信, 警告称在进行人工智能研究的同时必须相应地采取防范措施, 避免人工智能给人类社会造成潜在伤害。公开信指出:在短期内, 人工智能技术将让数百万人失业。在长期内, 人工智能可能潜在地让机器的智商远远超过人类, 做出违背编程的举动。而在社会层面, 如何从法律特别是刑法角度思考和回应上述风险也正是需要思考的问题。
2. 人工智能的刑法命题
风险社会的发展变迁是现代刑法所必须面对的社会现实。自德国学者乌尔里希-贝克1986年出版《风险社会》一书以来, "风险";成为理解和诠释社会变迁的一个关键性概念, "风险社会";随之也成为解释世界的全新范式。在这一过程中, 风险社会的到来无疑对于刑法理论与实践产生了巨大的影响。由于风险的增大和嬗变, 风险社会中公共管理的基本方略发生了重大变化, 根除风险几乎已经不可能, 如何防控和分配风险成为社会管理的新命题, 刑事立法与实践的导向也因此发生重大变化。据此, 有学者提出通过制度规范适应变动的社会是现代社会的法律传统。而在风险社会的逻辑支配下, 一种新的刑事法律体系和一种新的刑法理论应当而且必须建立。有学者已将人工智能的风险延展至风险社会的范式下予以研究:认为人工智能的首要问题是安全问题, 可以置于风险社会理论的研究范畴之中。进而指出人工智能时代的社会风险具有以下特点:一是风险的共生性;二是风险的时代性;三是风险的全球性。
纵观世界各国, 关于人工智能法律及相关规则体系的探索正在进行之中。决策者和学者正在越来越多地
关注法律和道德秩序如何适应愈来愈多的机器、机器人和人工智能设备的问题。立法者、法院和监管者都需要思考人工智能是否有任何特殊性以至于需要新的规则, 以及如何以合适的方式介入人工智能新问题。即需要回应这样一个全新命题现有的法律条文是否可以应付人工智能带来的全新和技术复杂的挑战?2016年5月, 欧盟议会法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics) ;同年10月, 发布研究成果《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics) 。2016年12月, 电气和电子工程师学会(IEEE) 发布《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿
景》(IEEE Ethically Aligned Design Document Elevates the Importance of Ethics in the Development of Artificial Intelligence and Autonomous Systems) , 具体包括8大主题, 即一般原则、将价值观嵌入自主智能系统、指导伦理研究和设计的方法论、通用人工智能和超级人工智能的安全与福祉、个人数据与个人访问控制、自主武器系统、经济和人道主义问题以及法律。在(人工智能) 自动驾驶领域, 2016年3月23日, 联合国关于道路交通管理的《维也纳道路交通公约》获得修正;美国道路交通安全管理局(NHTSA) 于2013年发布《自动驾驶汽车的基本政策》;德国立法机构2016年对《德国道路交通条例》所规定的"驾驶员在车辆行驶过程中全程保持警惕";"驾驶员的手不能离开方向盘";等条文启动立法修正。但是迄今为止, 关于人工智能犯罪的立法还处在探索阶段。
与此同时, 人工智能犯罪却已成为必须面对的现实问题。2016年荷兰人Jeffry van der Goot编写了一个木马程序, 借此对当地的时尚秀发出死亡威胁。该木马是一段算法随机混入Jeffry个人状态。Jeffry坚称他无意威胁任何人, 也不能预判木马会做什么。最终他没有受到任何指控, 仅是在警方的要求下撤下了该木马。同年, 在全球领先的信息安全系列活动Black Hat (黑帽大会) 上, 美国国防高级研究计划局让自动化系统相互对抗, 到对手代码中的漏洞并利用它们。如果相互对抗的自动化系统指向涉及国家安全等重要领域的计算机信息系统, 那么无疑会转化成相关的计算机犯罪。而且, 我国也出现了人工智能相关犯罪案件。在"全国首例利用AI犯罪案";中"他们通过运用人工智能机器深度学习技术训练机器, 可以让机器如AlphaGo一样自主操作识别, 有效识别图片验证码, 轻松绕过互联网公司设置的账户登录安全策略, 给网络、黑客"攻击等网络黑产提供犯罪工具。";在我国引入和学习人工智能的过程中也不可避免地遇到人工智能犯罪问题, 然而对其如何理解和解决目前还缺乏相关的研究。
笔者认为进行人工智能犯罪问题研究的必要性有以下3点:第一, 信息网络犯罪本就存在较大的犯罪黑数(即未被查证的犯罪数量) , "全国首例利用AI犯罪案";仅是首例被发现的人工智能犯罪案件, 很可能不是首例发生的人工智能犯罪案件, 而且随着我国人工智能技术和实践的发展, 相关案件肯定会愈来愈多, 确有必要早关注、早研究、早治理。第二, 人工智能犯罪不仅在内容上不同于传统犯罪和一般的信息网络犯罪, 而且由于介入了人工智能的判断与行为, 在主体等问题认定上为既有刑法理论提出了全新的难题, 也必须予以深入研究和探讨。第三, 在全球网络化的今天, 跨国家、跨法域犯罪十分普遍, 人工智能犯罪
往往和计算机信息系统和互联网关联, 完全可以由他国主体对我国主体予以实施, 如果国内刑法理论与立法缺乏必要的准备与实践, 那么很可能导致无法对他国主体利用人工智能实施的犯罪(如前述利用自动化系统相互对抗) 予以规制, 从而无法实现我国《刑法》第八条所规定的保护原则。由此, 及时、果断地进行人工智能犯罪研究具有重要的理论和实践价值。
二、人工智能犯罪的理论难题
人工智能犯罪由于人工智能的介入使得其中各个要素之间的关系更为复杂, 也对既有的刑法理论产生较大的冲击, 特别是对于既有的刑事主体理论提出新的挑战, 进而延展至罪过理论和行为理论。
1. 主体难题:人工智能的刑法地位
人工智能的主体难题是其刑法命题的根本所在。随着人工智能的发展, 其智能的发展程度和独立性也愈发突显。虽然人工智能不免受预设程序的要求与目的影响, 但是并不意味着人工智能不具有相当程度的独立性。如"微软聊天机器人Tay散布种族主义、性别歧视特斯拉再出事故
和攻击同性恋言论";案件中, Tay是微软2016年在上推出的聊天机器人, 仅上线一天, Tay就开始有一些种族歧视之类的偏激言论, 微软不得不紧急关闭了Tay的账号。Tay的设计原理是从对话交互中进行学习。于是一些网友开始和Tay说一些偏激的言论, 刻意引导她模仿。该案也被称为"2016年人工智能的10大失
败案例";之一。以我国语境为参照, 发表特定言论可以构成犯罪(如散布危害国家安全、恐怖主义、诽谤他人等言论) , 如果他人诱导人工智能散布相关言论该如何认定?特别是该人工智能是基于自身的"学习";并"发表";以上言论该如何认定和处理?
在传统刑法领域, 只有自然人才是刑法规制的主体。行为是生物的基本特征, 在某种意义上可以把行为与生命相提并论, 没有行为也就没有生命。刑法中的行为, 虽然是一种犯罪的行为, 应当受到刑罚处罚, 但它仍然具有人的一般行为的特征。刑事古典学派与刑事近代学派虽然观点上大相径庭, 但是其思考起点并无二致, 如龙布罗梭的"犯罪认定型说"; (生来犯罪人论) 虽否认人具有自由意志, 但认为犯罪人比起其他非犯罪人较为退化、原始和野蛮, 此现象成为隔代遗传或祖型重现。即便是后来的刑法理论也一直秉持自然人作为刑法的首要甚至唯一规制对象这一前提, 如"新社会防卫论";则在尊重人的价值与权利的前提下考虑犯罪人的复归, 将人视为社会防卫的目的。而刑法的规制主体如果是机器人, 那么这将面临两个基本的问题:其一, 刑法要能保证道德主体的权利;其二, 机器人应该遵守刑法上的义务。而现阶段人工智能显然不具备自然人的特征, 在其世界里只有"0";和"1";构成的信息及其处理, 不仅在实施犯罪的前提与依据上存在障碍, 在事后的处罚层面也面临无从下手的问题。就此而言, 人工智能并不能作为传统体系的适格主体进入刑法视野。但同时, 如Tay基于自身"学习";而后发表偏激言论的行为却又在相当程度上脱离于设计者的意思, 该如何对其主体性予以看待仍有待思考和研究。
2. 罪过难题:人工智能犯罪的主观方面
人工智能的一些独立判断和决定也带来了罪过认定的难题。随着人工智能的发展, 机器人逐渐能够从周围环境的刺激中学习, 并从自己的行为中获得知识和技能, 进而使机器人会越来越难以被它们的用户和设计师预测。国外学者进而指出, 我们必须确定机器人的意图, 因为其可能影响对机器人惩罚的正确性, 所以应首先分析刑法(而不是民法) 领域的原则、规则和概念。如在"Jeffry van der Goot案";中, 他所编写的木马程序脱离于本人的预判和控制, 对于木马"独立";发动的攻击行为的主观方面该如何予以考量?再如BBC地平线系列纪录片《寻人工智能》(BBC Horizon:The Hunt for AI (2012) ) 所报道的针刺机器人, 机器人会根据自己的判断是否会刺伤人的手指, 对于其行为的主观方面该如何认定?人工智能所带来的主观方面认定的难题已经成为现实。
这里需要说明"Tay案";与"Jeffry van der Goot案";的区别:Tay案完全基于人工智能的自主学习而发表偏激言论, 不存在教唆或就发表偏激言论的相关指令, 其行为系人工智能自身学习而后实施, 故关注重点在于人工智能的主体性;"Jeffry van der Goot案";和针刺机器人系自然人赋予人工智能就侵害行为一定的决定权, 而人工智能自行决定是否实施侵害, 因而重点在犯罪的主观方面。
一直以来, 只有自然人的主观罪过才进入刑法的视野。现代刑法的主观罪过理论确立了人的主体性以及自由、平等及相关权利, (自然) 人成为主体与客体两分的二元世界的主导, (自然) 人的独立意志成为权利、义务、责任包括处罚的前提基础。构成这一思想的核心是主张尊重理性的观点。人根据自己的理性, 能决定自己的行为。如费尔巴哈的心理强制说认为, 人具有追求快乐、逃避痛苦的本能。为了防止犯罪,
必须抑制行为人的感性的冲动, 即科处作为害恶的刑罚, 并使人们预先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快乐,
才能抑制其心理上萌生犯罪的意念。其后, 费尔巴哈的观点虽经扬弃, 但是人的自由意志一直作为刑法罪过理论的重要基石。如有学者指出, 意志自由, 这里主要是指相对意志自由是罪过心理的基础, 而罪过心理是一个犯罪构成的问题。因此, 建立在意志自由之上的可归责性应当是犯罪构成的题中之义。黑格尔甚至还将自由意志纳入了法益侵害的层面予以理解:当人侵犯了具体意志的存在, 侵犯了人的自由意志, 违背了抽象法的时候, 人就构成了犯罪。而人工智能的"意志";又和传统刑法理论中的意志自由有所区别, 既包括意志主体方面, 也包括意志依据方面。人工智能的"意志";并非来源于天赋人权, 而是来源于预设的程序和指令, 但是其可以根据预设的程序和指令自行决定一定的行动, 并可能导致一定的社会后果, 二者的前提和讨论范围均不一致。所以前述理论并不能够为人工智能基于独立判断和决定所实施侵害的主观方面认定问题提供有效的阐释依据。
而且这一问题还有必要结合人工智能的不同形态予以研究。人工智能可以分为强人工智能和弱人工智能。强人工智能的观点认为未来能够真正制造出能进行推理和解决问题的智能机器, 这种智能机器像人一样有知觉和意识。而弱人工智能的观点认为, 智能机器只是看起来像是智能的, 它的智能只是表面的、非实质性的, 不会像人类一样真正拥有智能和意识。虽然目前这一争论尚无最终的定论, 但是两个层面的人工智能已经出现:第一个层面是比较低级的人工智能, 即只是在特定领域、特定用途的智能化, 人工智
能不具备独立的判断与决定能力;第二层面是比较高级的人工智能, 人工智能具备一定独立的判断与决定能力。如果说前者的人工智能犯罪主观方面问题可以借助传统的计算机犯罪范式予以阐释, 后者的人工智能犯罪主观方面问题则需要进行新的研究和探讨。
3. 行为难题:人工智能犯罪的客观方面
人工智能犯罪也为犯罪客观方面的认定提出新的命题。从行为层面, 人工智能犯罪可能涉及以下2种类型:第1种类型为人工智能本就应用于社会之中, 由于人工智能出现问题或者其他原因产生危害社会的后果。如前文所述的特斯拉自动驾驶导致交通事故等严重后果的情形。在这种情形中人工智能本身用途无害, 但是客观上造成了法益侵害, 这也是学界已经关注和研究的情形。如有学者对其再予展开, 认为机器人致人损害有两种情形:一是侵权人对智能系统进行非法控制而造成的损害。例如, 黑客、病毒等人为因素侵入互联网, 进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统, 由此导致危及人类的后果。二是智能系统自身的产品瑕疵而造成的损害。第2种类型为人工智能被直接用于犯罪。如在"全国首例利用AI犯罪案";中, 其通过人工智能将OCR文本识别技术用于非法获取个人信息, 人工智能被直接用于犯罪目的。
在传统意义上, 刑法中的行为只能是人的行为。如有学者指出, 刑法上的行为, 是指行为主体实施的客观上侵犯法益的身体活动。首先, 行为是人的身体活动, 包括消极活动与积极活动。其次, 行为上必须是客
观上侵犯法益的行为, 这是行为的实质要素。并以此区别犯罪行为与天灾等造成现实侵害的事件, 从而明确刑法所规制的行为界限。然而人工智能犯罪中的行为却正是在两者之间:第一, 人工智能的"行为";并非自然人所直接发出的, 有些甚至并非自然人所直接指令其发出的(如"Jeffry van der Goot案";) , 人工智能的"行为";在归因于自然人的过程中存在一定障碍。第二, 人工智能的"行为";又与自然人有一定的关联, 自然人纵然不直接指令人工智能实施一定的"行为";, 但是至少会对人工智能的模式和范式做出设定。由此, 如何认定自然人行为与人工智能"行为";的性质与界限是刑法理论必须思考的问题。
前述人工智能犯罪可能涉及的两种情形更深化了这一问题:就第1种情形而言, 自然人并非积极追求人工智能所造成的危害后果, 甚至自然人所设定的人工智能运行规则是
发布评论