人工智能的刑法规制

/ 2

人工智能的刑法规制

 谢庆龙,邓小斌,郑未,于悦

齐齐哈尔大学 黑龙江省齐齐哈尔市 161000

要:

随着人工智能的普及,它为社会带来了巨大的变革,但同时也带来了潜在的法律风险和责任风险。人工智能技术的发展可能会对传统犯罪造成更多的威胁,并且还会引发新的犯罪方式。因此,在刑事领域,我们需要考虑的是人工智能是否需要承担刑事责任,以及它们是否拥有法律身份,这些都是判断它们是否适合成为犯罪的关键因素;因此,深入探索人工智能的法律人格特征变得极其重要。

关键词:人工智能;刑法;法律人格;

“人工智能”意味着通过对机器进行编程,使它们具备与人类相似的思维和行为。自20世纪50年代以来,人工智能的理论便开始流行,而随着最新的算法、计算技术以及数据存储技术的不断完善,近年来,人工智能的发展步伐也在不断加快。随着人工智能技术的飞速发展,全球各国正在积极采取措施,制定有效的政策,以期解决这一新兴技术带来的挑战。2017年,国务院发布了《新一代人工智能发展规划》,将人工智能技术提升到一个全新的战略层面,强调了它在我国经济社会发展中的重要作用。随着科技的飞速发展,人工智能已经成为当今社会不可忽视的一部分,但是目前我国的刑法还没有充分考虑这一因素,因此本文将深入探讨人工智能可能引起的刑事风险,以及如何正确认定其在刑事上的责任,并结合国际法的经验,提出有效的解决方案。

一、人工智能时代的刑事风险

在这个弱人工智能的时代,我们面临着两大类刑事风险:第一类是可能导致许多传统犯罪行为更加严重;第二类行为有望引发全新的犯罪类别出现。

1. 弱人工智能可能增大部分传统犯罪的社会危害性

随着互联网的飞速发展,虽然不能完全消除犯罪,但却无法阻止一些传统犯罪活动出现重大的社会变革和经济增长。随着科技的发展,弱人工智能技术已经被用于军事领域,但也会对国家和公共安全构成潜在的刑事威胁。其中,人工智能武器就是这种结合的典型代表。若是人工智能受到恐怖主义者的操纵,那么它将对全球的安全、稳定以及社会的发展构成严重的挑战。2018年,韩国科学技术院成立了人工智能R&D中心,旨在开发出能够满足作战指挥需求的人工智能技术,然而,这一消息一经发布,便引发了全球30多个国家的强烈反对。显而易见,虽然人工智能武器可以提升人类的生活质量,但它也可能会给社会带来潜在的威胁。

2. 弱人工智能可能导致新的犯罪类型生成

通过将弱人工智能和大数据相结合,我们可以创造出全新的犯罪模式。根据最高人民法院和检察院发布的相关司法解释和指引,人工智能技术的使用已经成为一种重要的犯罪手段,特别是当它被滥用时,会引发更多的数据滥用行为。根据最高人民法院和最高人民检察院发布的司法解释,我们发现,在保护信息系统的基础上,更多的是关注其内部的安全性和稳定性,而忽略了其本质的价值和保护的必要性。然而,犯罪者利用人工智能技术进行犯罪活动,表现为他们滥用大量数据,并创造出各种不同的犯罪方法。利用人工智能技术,我们能够获得远远超乎我们想象的成果,即使一些数据本身并不具备重大的敏感性,但是经过大规模的分析和综合考虑,我们仍然能够推断出一些关键的、极具价值的信息,甚至可能会构成一些危害国家安全的隐患。

二、刑事责任承担

当今,中国的司法实践将智能机器人视为受到刑事责任的对象,与法人一样,具有相同的权利和义务。当人工智能机器人未能履行其应尽的法律义务,或者未能尊重被看护人的权利,从而导致其犯下刑事犯罪时,人工智能主体应当承担相应的刑事责任。就像父母对孩子的责任是照顾他们,孩子也应该负起赡养父母的责任,但是,如果没有履行这些责任,就会导致遗弃或虐待的后果。当人工智能主体发挥作用,比如智能机器人执行指令,而这些指令又被用于犯下刑事罪行时,“实际控制人”规定,这些行为所带来的刑事责任必须由相关主体承担。近年来,美国发生了一系列令人震惊的恐怖袭击,其中一些是由人工智能技术驱使的机器人,它们携带着各种危险的武器、弹药和爆炸物,在人口稠密的地方和公共空间进行破坏性的攻击。尽管人造机器人可能会对公众安全构成严重威胁,但最终的刑事责任仍归属于那些指使人造机器人进行犯罪活动的恐怖分子。

人造程序是人类使用最广泛的人工智能产品,但它们并不具有刑事责任能力。在处理人工智能产品时,必须确保它们具有完全的自治权。由于人工智能系统缺乏识别和控制的功能,因此在法律上,特别是在责任认定方面,它并不负有应尽的义务。只有当人类,无论是自然人、法人还是其他组织,利用犯罪工具来达到自身的犯罪目的时,才有可能被纳入刑事责任的范围。

在司法实践中,人造程序可以用于实施多种犯罪行为,包括但不限于刑法规定的各种犯罪,如危害国家安全、破坏公共安全、侵害人身权利等。尽管人造程序可以被视为一种犯罪手段,但它们并不构成刑事责任,因此,只有那些利用它们进行违法活动的人才有权获得惩罚。从法律角度来看,人工智能程序和机器人在被指控犯罪时,其地位是一致的。

总而言之,当面对人工智能主体的刑事责任时,我们应该从积极的立法视角出发,并将其融入到风险管理的框架中,深入研究并加以解决。

三、人工智能技术之突破性成就——人工智能武器

随着IT的飞速发展,人工智能已经在各个领域得到了广泛应用,取得了巨大的成就。随着人工智能技术的发展,它已经深刻地影响到了军事领域,并且给当前的军事管理和指挥系统带来了前所未有的挑战。这种新型的军事斗争方式可以彻底颠覆传统的格局,为实现国家的安全目标提供了有力的支撑。与自然人相比,人工智能武器具有更高的信息化和专业化水平,可以在可控范围内实现精确打击,大大降低军事人员伤亡率,并且能够有效地抑制和减少执行任务过程中受客观条件的影响。虽然如此,它的缺点也是显而易见的。

尽管人工智能技术的发展可能带来一些优势,但是研发者和操纵者仍然无法保证智能武器的安全性,因为它们可能会受到来自其他技术的不利影响,从而导致安全隐患的出现。除了具备人类伦理特征外,没有任何心理特征的人工智能无法洞察到战争中自然生物的情绪变化。即使智能武器拥有完全不同的思维模式和行为模式,但如果缺乏心理因素,它们也不能被视为一个真正的“人”。由于人工智能技术具备的先进特征,它们已经成功地取代了传统的军事人员,并且具备超越军事人员的潜力。然而,由于人工智能技术的复杂性,它们难以准确预测敌人的行动,从而使得局面变得更加恶劣,对国际法,特别是国际人道主义法产生了极大的负面影响。面对这种挑战,我们必须加强国际人道法的修订和实施有效的法律约束。根据我国的立法现状,尚未有效地防范人工智能武器可能带来的安全风险,因此,应当加强国际法的研究和实施,以期望能够更好地保护人类的权益。

四、结语

当前的法律框架中,对于人工智能的法律地位没有明确的规定,学术界也存在着不同的观点,认为它们没有法律地位。随着科技的飞速进步,最先进的人工智能武器已经开始普及,这些先进的武器可以有效地阻止非法分子使用它们进行犯罪活动,从而为社会带来极其严重的安全隐患。随着人工智能技术的发展,刑事风险也日益增加,因此,加强对刑法的修订与完善显得尤为迫切。但是,目前我国在此方面还有许多不足,需要加以弥补。根据我国的实际情况,应当采取多种措施来加强对人工智能犯罪的打击,包括建立专门的罪名制度,以及增设滥用人工智能罪,并且要充分利用国际法的优势,使我国的法律体系更加完善,从而形成国内法与国际法的有机统一。

参考文献

[1]贾彦哲.论人工智能研发者过失犯的注意义务[J].华中师范大学研究生学报,2020(2):40-46.

[2]寇枫阳.人工智能与法学的博弈和共生:现状与冲突、回应与未来[J].华中师范大学研究生学报,2019,0(4):46-50.

[3]胡铭,宋灵珊.“人工+智能”:司法智能化改革的基本逻辑[J].浙江学刊,2021(2):12-23.

[4]马国洋.论刑事诉讼中人工智能证据的审查[J].中国刑事法杂志,2021(5):158-176.

序号:176

项目编号:x202210232027

学院名称:哲学与法学学院

项目名称:人工智能的刑法规制

项目级别:校级项目

项目类型:创新训练项目

项目执行年限:2022.05-2023.04

项目负责人:谢庆龙