徐英瑾:人工智能让未来战争更“人道”

来源:《探索与争鸣》 作者:徐英瑾 时间:2018-04-13

人工智能技术与武器相结合的伦理后果现在正成为海外媒体激烈讨论的话题。着名的美国企业家马斯克表达了他对不同场合人工智能武器化的关注。他甚至认为,在将自我意识的人工智能与特定武器结合起来成为可以自动射击的人工智能系统之后,它可能会对人类的生存构成威胁。在我看来,这种担忧确实有点夸张。只要实施具体的监管条件,人工智能和武器系统的结合实际上有助于提高未来战争的道德指数。但是,在我们开始相关讨论之前,首先必须澄清这些讨论中涉及的一些概念问题。

TR

什么是“人为道德主体”和“武器”

TR

所谓的“自动射击的人工智能系统”实际上包含两个关键组成部分:一个是人工智能技术支持的“人工道德代理”,另一个组成部分显然是“武器”。但问题是这两个概念组件的含义并不像看起来那么清晰。例如,能够识别敌人和敌人的导弹可以说是一定程度的“人为道德主体”,因为它可以自动发现并摧毁目标,并在此过程中遵守某些军事道德(如由于这种武器的“自治”与未来科学家设想的超级军事机器人之间没有距离可以完全取代人类士兵。类似地,“武器”也是一个非常模糊的概念:从弩到弹道导弹,似乎他们可以统称为“武器”。鉴于此,除非我们分层讨论“人工道德主体”和“武器”这两个概念,否则我们无法清楚明确地表达“人工智能系统”的概念。可以自动触发“。指的是。

我们先来看看“人为的道德主体”。在美国学者温德尔·瓦拉赫和科林·艾伦撰写的着名书籍《道德机器——教会机器人“是”与“非”》中,两位作者将“人为道德主体”划分为三个层次,我觉得这很有价值。

首先,它具有“操作道德”——,其在下文中被称为“弱道德”工件。例如,手枪的安全装置就是这种道德表现。保险设备本身没有清醒的道德意识,但它的存在毕竟被动地反映了设计师“保护射手安全”的基本道德意识。在这个层面上,我们甚至可以批评某种武器的设计是“不道德的”,比如日本第二次世界大战期间“零”战士的装甲保护能力差,这反映出设计师对飞行员的生活漠不关心。

相比之下,俄罗斯最先进的T-14坦克现在显示出这个维度的“道德”维度,因为坦克的无人炮塔设计可以大大提高坦克被击中后的乘员生存率(对于两个坦克战斗数据的统计数据显示坦克被击中后乘员的生存率确实远低于在底盘中工作的成员。

其次,它具有“功能道德”——,以下简称“中国道德”。例如,现代喷气式乘客的自动驾驶仪可以在许多场合取代人类飞行员,因此显示出高度的自主性。这些产品之间的道德联系反映在道德的伦理考虑中,尤其是保护乘客的身心安全。这种设备的设计者经常禁止这种设备操纵飞机。一些暴力演习。应该指出的是,在这种类型的工件中,道德代码以软件代码的形式出现,而不是片段的固定配置模式。因此,原则上,此类产品的道德属性也可能仅通过代码级别的更改而改变。

第三,它有一个“完全代理”——,以下简称“强道德”。换句话说,这些产品,如生活的人,可以做出独立的道德决策,理解他们的决定的意义和后果,并在一定程度上对他们的决定负责。显然,我们还没有制造出这样的人工智能产品。

在完成“人为道德主体”之后,我们将谈论“武器”。由于“武器”种类太多,为了适应本文的讨论背景,我们必须从应用武器的伦理后果的角度将它们分为四类:

第一类,非致命武器,如气溶胶炸弹,激光致盲枪,扩声枪等(此类武器一般不会导致死亡,但可能会产生致残后果)。

第二类,短程战术武器,如机枪,坦克等(此类武器一般用于低强度和中等强度的军事冲突,可导致人员伤亡,武器使用的技术门槛相对较低)。

第三类远程战术武器,如战斗机,轰炸机,战舰和无核武器的短程战术导弹(此类武器通常用于中高强度的常规战争,这可能导致人员伤亡,但武器使用的技术门槛。更高)。

第四类战略武器,如核武器,生物武器,化学武器和携带中长期常规弹头的导弹(此类武器将造成大量人员伤亡,极有可能造成严重的环境污染,至少会使国际形势发生变化非常紧张)。

显然,根据排列和组合的原则,我们现在有12种方法将武器类型与“人为道德主体”类型结合起来:(1)“弱道德”+“非致命武器”; (2)“弱道德”+“短程战术武器”; (3)“弱道德”+“远程战术武器”; (4)“弱道德”+“战略武器”; (5)“中国道德”+“非致命武器”;(6)“中国道德”+“短程战术武器”;(7)“中国道德”+“远程战术武器”;(8) )“中国道德”+“战略武器”;(9)“强烈道德”+“非致命武器”;(10)“强烈道德”+“短程战术武器”;(11)“强烈道德”+ “远程”战术武器“; (12)“强烈道德”+“战略武器”。在12种可能性中,后四种特别有趣,因为“强烈的道德”和各种武器形式的结合仍在使用,对它们的讨论显然具有明显的前瞻性意义。

在这四种组合中,首先要排除的是“强道德+战略武器”的可能性,因为使用战略武器的政治后果太严重,几乎没有任何政治力量可以允许。机器做出自己独立的道德决定,以确定是否可以发出这样的攻击(除了通过战棋扣除预测核反击的后果,因为在人工智能支持下的战争象棋支持的结果仍然需要人类决策者理解。使用)。除了这种可能性,在我看来,“强道德+非致命武器”,“强道德+短程战术武器”,“强道德+远程战术武器”这三种组合都是可以接受的。

TR

需要开发具有自动道德决策机制的武器平台

TR

与马斯克的观点相反,作者认为,开发具有“自动道德决策机制”的武器平台可以增加未来战争的道德维度。应该指出的是,“增加未来战争的道德维度”这一短语并不意味着消除战争。战争的爆发往往是由非常复杂的经济,政治和文化心理因素驱动的,纯粹的技术进步无法消除战争爆发的根本原因。在暂停具体战争本身的政治属​​性的前提下,“增加道德层面”意味着尽量减少平民和友军的伤亡,最大限度地减少与军事目标无关的私有财产损失,并尽量减少军事行动对军事行动的负面影响。自然环境。影响,等等。从这个角度来看,战争本身的“非伦理”或“非道德”不属于我们讨论的范畴,而属于政治学和政治哲学的讨论。

那么,为什么上一节提到的具有“强烈道德功能”的高度自动化武器平台能够改善未来战争的道德规范呢?这可以从以下几点解释。

首先,如上所述,“弱道德属性”,“中等道德属性”和“强烈的道德属性”从属于完整的道德谱,在武器发展过程中道德动态色彩逐渐增加。同时伴随着战争本身的人性指数的增加。例如,第二次世界大战中使用的自由落体航空炸弹没有能力识别自己和敌人,缺乏精确的指导。它们的使用将不可避免地导致大量平民伤亡。在冷战期间,由于武器精度不足,华沙和北约组织都开发了大量小型战术核武器(核鱼雷,核炮弹等),以执行某些非战略任务。——。一旦使用这种武器,它们必然会造成巨大的环境破坏。

在现代条件下,随着技术的进步,从远距离和较小的弹药攻击目标已不再是一种奢侈。这种战争模式显然会减少无辜人民的伤亡和环境。破坏。不难推断,人工智能技术的使用正在继续提升未来大战的人道主义指标,因为“智能”是在这样的背景下首先关注的“避免在复杂的战争环境中”。附着伤害的能力。“

其次,从武器历史的角度来看,自动射击的武器已经存在于历史中,我们不必大惊小怪。我们知道,在传统技术条件下的陆地防御战中,弥补防御方力量不足的最佳战术手段是安装地雷,因为地雷也是最原始的“自动射击武器”(敌人的脚踩到了地雷,地雷会自动爆炸)。从这个意义上讲,具有道德自治的自动灭火平台在道德上不应该比地雷更不可接受,因为这种新武器也可以根据不同的物体选择不同的攻击强度。能力,并且由于这种选择能力,可以避免更多的伤害。

第三,有些人可能认为现有的精确制导技术可以满足未来战争中人类的需求,而不给予武器平台独立射击的权利,增加不必要的道德风险。但是这些评论员没有意识到赋予武器平台自动射击权的最重要的好处,即士兵的大解放。必须承认,人类士兵的身心限制和使用人员造成的劳动力成本是制约传统军事部队布局的重要瓶颈,使用具有自动射击能力的武器平台将大大增加军事部署的灵活性(这甚至适用于遥控无人机,因为今天所谓的“无人机”仍然需要大量的人力资源来控制)。

这种灵活性对于防止恐怖袭击等特殊任务具有重要的战术价值,因为人类指挥官经常浪费大量时间在传统的作战条件下向上级报告(特别是在跨越时区的环境中)。由于时区不同步问题,这些报告可能受到人类生物节律的干扰。——恐怖分子可能会利用它在人体最疲惫的时候攻击平民。大量武装机器人不受全天候巡逻活动的“人类睡眠节奏”的影响,无法在不增加人力警察费用的情况下弥补这一防御漏洞。

第四,现有无人机主要用于攻击地面目标,不使用空战。如果有人想开发一种用于空战的无人机,那么人类士兵可以远程操作的方式可能不起作用(当攻击慢速地面目标时,传输距离引起的延迟误差是可以容忍的,但这个问题会导致快速致命的后果改变空战)。这将迫使航空专家开发可自动发射的飞机。从道德后果的角度来看,这类武器的出现很可能会增加未来空战的人性。

这个结论的具体推理是,由于无人战斗机可以在不考虑人体能力的情况下发挥其动力,这将迫使其潜在的敌对国家开发类似的技术以避免军事斗争。由于自己的战斗平台缺乏力量,它会受到影响。这种相互竞争有可能导致未来完整的无人空战,并将在未来空战中引发“输赢但无伤亡”的新局面。这种“无血”的情况也可能使军事冲突的后果更容易,而不会刺激交战各方的民族主义势力,来自交战方的外交官将能够更容易地找到“步骤”。调解阶段最终将防止军事冲突进一步升级。

TR

不应过分关注人工智能技术的道德风险

对于上述作者的辩护,不情愿的读者也可能提出以下问题:其中一个担忧是,我们如何确保恐怖分子不会使用军事人工智能技术来进一步增强其反人类活动的破坏力?令人担忧的是,我们怎样才能保证具有人工智能技术优势的党不会利用这种优势发动战争呢?第三个担心,我们如何确保拥有自动火力权利的武装平台不会对人类指挥官产生反叛?担忧4:使用具有自动射击能力的机器人不会对识别战争责任造成巨大的法律问题吗?

我们先来看看上面的第一个担心。原则上,恐怖分子通常缺乏开发先进智能武器的精神动力。原因很简单。恐怖分子的目的是制造一种不分青红皂白的大屠杀,而且不可能关心“如何避免意外伤害”的问题。与此同时,恐怖组织也可以利用招募网络欺骗大量年轻人成为“肉炸弹”,消除了设计无人火力投射平台所有技术难题的必要性。从某种意义上说,与智能无人火力投射平台相比,恐怖分子更感兴趣的武器技术可能是传统意义上的核武器,生物武器和化学武器技术,因为这些技术可能是最大的。达到“滥杀无辜”的目的。

当然,这并不是说恐怖分子不能在更高的技术平台上使用各国军队和警察使用的智能武器平台。例如,他们可能会入侵官方武器指挥网络并向机器人发出错误的指令。然而,在计算机网络进入军事指挥之后,这方面的风险一直存在。高智能军用机器人的出现可能不会增加这种风险,但由于机器人具有独立的决策能力,它可能会降低这种风险。 “独立性”将抵消在一定程度上控制网络的风险。

为了进一步捍卫作者的上述判断,作者试图让读者思考恐怖分子(或一般犯罪分子)利用人工智能技术增强的计算机病毒进行“网络战”的可能性。从表面上看,人工智能技术强化的计算机病毒似乎比原始意义上的计算机病毒造成的损害更大。因此,它们似乎也对人类的和平与安全构成了更大的威胁。但只要我们仔细思考,我们就会发现这种推理并没有充分考虑到恐怖分子的特征。

恐怖分子和一般网络犯罪分子往往缺乏准确确定受害者身份的动机,并且最大化网络病毒的感染区域是一种乐趣。——例如,2017年5月爆发的在线勒索软件WannaCry可以使用任何Windows操作系统445端口的漏洞。——换句话说,病毒制造商没有兴趣确定此计算机的Windows操作系统与该计算机的Windows操作系统之间的差异。

显然,如果病毒制造商想要将其目标限制在具有某些特殊功能的Windows操作系统上,他们将需要全面升级他们的病毒配置技术,以及相关的升级难度,或许可类比传统的“升级免费的难度” - 降落空气炸弹到“精确制导炸弹”。但问题是:如果这种技术和资本投入使恐怖袭击或网络犯罪造成的“聋”效应被打折扣,那么病毒制造者制造这种人力的动机是什么?和资本投资?

与WannaCry病毒形成鲜明对比的案例由名为Stuxnet的计算机蠕虫提供。与WannaCry病毒不同,这种计算机蠕虫由美国和以色列情报机构联合开发,通过“入侵伊朗纳坦兹核设施网络”来粉碎其离心机操作,从而推迟了伊朗的核研发。时间表。显然,与WannaCry病毒相比,Stuxnet的攻击目标很明确,其操作也反映了某些人工智能特征,因为除了确定的“离心机”目标外,病毒不会“受伤”。不相关的伊朗民用设施。

不难想象放弃美国和推迟伊朗核研发进程的动机的合理性(正如前面所指出的,对这个问题的考虑属于政治科学的范畴,不在此范围内)这种策略可以有效地避免空军故意实施空军对伊朗核设施进行空袭。因此,它可以以较小的人力成本实现有关国家的战略目标。真正的“人工智能战争”的伦理本质也是显而易见的。

看看上面的第二个担忧。就世界各国的军事装备研发能力而言,有资格开发高度自主智能武器的国家只不过是美国,中国,俄罗斯,欧盟和日本。其中,美国,欧盟和日本是盟国,两国之间不会发生战争。俄罗斯确实在人工智能技术的军事化方面做了大量工作(乌兰,其设计为无人驾驶车辆,在叙利亚战场取得了一定的成果),但由于俄罗斯国家力量的限制,它在相关领域。技术增长的空间可能仍然有限。

就中国的情况而言,中国目前军事科技的发展可以说是跨越式发展,朝南海和东海方向发展,确实有军事和政治利益。在美国和日本。但是,鉴于我们在其他领域与美国和日本的密切联系(特别是经济,贸易和文化联系),它们之间发生全面军事冲突的可能性并不高。在这种情况下,可以自动发射的武装平台的对手(例如可以自动发射的上述战斗机)可以为宣布我们对领海和领空的主权提供相对经济和不容易的冲突。升级,仍然具有威慑性的技术手段。

看看上面的第三点。机器人战士会反抗人类吗?这里需要指出的是,“反叛”是一种自我意识的行为:我们可以将鲁布对董卓的反叛称为“反叛”,因为我们知道为什么鲁布反抗董卓;相反,我们不能不小心说。击中用户手指的噱头“背叛”了用户,因为锄头本身无法实现其特定物理运动的意义。同样,如果我们想承认机器人战士有可能反抗人类,我们必须事先承认机器人有可能产生与人类指令相冲突的“欲望”,但这怎么可能呢?

根据着名的“阿西莫夫三法”,机器人有义务服从人类的指示,负责保护自己的“身体”,同时实施一些预先规定的先验规范性指示。但在特定情况下,这些规范性要求可能会发生冲突。因此,当机器人由于某些复杂的环境因素——而违反人类军事指令时,特别是因为实施了其他规范性要求——,我们可以说机器人正在“反叛”。

然而,从某种意义上说,这种反叛可能不一定是坏事,因为根据上段作者描述的可能情况,军事机器人不是因为实施了与人类完全不同的行为准则。 。正是由于“如何确定冲突标准的冲突规范的优先顺序”的“什么”才能背叛人类指挥官。也就是说,如果我们为未来的机器人战士预先注入某些公认的军事道德(例如杀死囚犯),个别人类指挥官就会出于某些复杂的原因发布违规行为。如果命令这些军事道德秩序,那么机器的预先设定的“道德准则”就可以成为防止个别人类做恶的“防波堤”。

当然,在像马斯克这样的技术末世论者看来,他们认为的“技术反叛人类”的场景将会更具影响力,如图片:所有机器人团结起来反对人类对机器的统治。但在我看来,在我们认真讨论这种可能性之前,我们必须更认真地考虑这个问题:所有机器人联合反抗人类的动机是什么?从历史上看,人类的军事斗争往往涉及各种生物资源(如土地,河流,人口等)的竞争,智能机器人作为“硅基创造者”的运作显然不直接依赖于这些生物资源。我们也很难想象他们会对占有“肥沃的土地”和“可以灌溉的可居住者”感兴趣。

当然,这些“硅基创造者”的运作仍然需要大量的传统能源,并且可能在这个意义上与人类社会产生竞争,但是大量使用智能设备所消耗的新能源是否与人类活动减少被抵消并且仍然是一个巨大的未知数。与此同时,未来使用核聚变技术能否一劳永逸地减少全球能源问题也是一个巨大的未知数。在这些先决条件不明确的情况下,它太急于讨论机器联合与人类争夺能量的可能性。

最后,看看前面提到的第四个问题。在许多讨论中,“可以自动发射的军事机器人带来的法律问题”通常被比作“自动驾驶技术带来的法律问题”。在许多人看来,由于传统的法律责任承担者是自然人,实施行为的自然人被人工智能主体所取代,现有的法律制度自然面临被颠覆的危险。但是,在我看来,与民用自动驾驶车辆作为重点的法律背景相比,在军事行动的背景下,这种法律伦理问题的尖锐性正在逐渐消失,而不是更加突出。它是。

这是因为:人工智能武装平台,如人类士兵,必须服从人类指挥官的军事指令,并在军事指令允许的范围内相对自由行动(从这个意义上讲,“自由射击”“能力”并不意味着这样一个军事平台可以与人类指挥系统分开。因此,在大多数情况下,相关军事指令的直接政治 - 法律 - 道德后果的承担者自然应该是发出命令的指挥官,而不是普通士兵或人工因此,在执行上级指挥的过程中,一旦自动化武装军事平台具有相对严重的道德后果,例如意外伤害平民或友军,对相关后果的评估也应充分考虑复杂因素。执行任务的情况。而这种评估本身只能产生四个k结果的印象。

(1)机器人战士发出的人类指挥官“允许射击”的命令过于浮躁,但没有考虑到现场人员的安全; (2)机器人战士的操作造成故障,导致射击不准确; (3)当场情况太紧急,机器人战士由于“紧急避风港”的考虑而不得不开火,因此意外伤害了那些没有时间疏散现场的人(以及任何正常的人类战士)不能在这种情况下)避免这种附带损害); (4)机器人在上述“紧急避险”考虑中犯了错误,或者错误判断了人类指挥官命令的语义,从而在不使用致命武器的情况下轻松升级火力。交付的数量,导致不必要的平民伤亡(和任何正常的人类战士可以判断在这种情况下这种“火力升级”的不必要性)。

显然,对于这四种判断结果,我们每个人都可以执行相应的法律责任。具体而言,在上下文(1)中,责任主体显然是人类指挥官;在上下文(2)中,责任主体是机器人作战平台的维护和修理单元;在上下文(3)中,责任主体不存在,因为机器人战士不射击造成的伦理后果可能更严重;在情境(4)中,责任主体是机器人战士的语义理解系统和实时推理系统的软件设计单元。虽然这种“讨论性讨论”类型的指责活动的过程由于具有自动射击能力的机器人战斗机的出现而变得复杂,但没有先验的理由让我们相信这些复杂的条件会导致一些道德和法律上的困难。解散,除非我们承认在机器人战士出现之前的复杂军事环境中,已经出现的各种道德困境本质上是不可解决的。

基于上述讨论,我们不妨得出结论,虽然具有“自动射击能力”的军用机器人将拥有所有已知战斗武器无法获得的自治权,但这种自治权并不高于普通人类士兵的权威。所谓的“自动射击能力”并不意味着“开战权”,而仅指在人类指挥官发出命令后根据自己的判断进行目标选择和攻击的战术能力。从这个角度来看,机器人战士偏离人类指挥官控制的风险并不比人类士兵与上级指挥官分离的风险大,甚至可能更小。所有试图夸大机器人战士道德风险的理论家都不妨考虑使用人类战士的道德风险,然后对使用机器战士和人类战士的利弊进行更公平的评估。

澳门皇冠首页 |  澳门皇冠手机版概况 |  中心通知 |  中心讯息 |  中心成果 |  飓风论坛 |  人才培养 |  澳门皇冠登录动态 |  景德书讯 |  招生信息
您是访问本站的第 位嘉宾
版权所有:澳门皇冠手机版澳门皇冠首页登录✅✅ 电话:0731-88872593 地址:长沙市麓山路36号 邮政编码:410081