近年来,人工智能(AI)在武装冲突中的使用开创了前所未有且极具争议的局面。最近讨论的应用之一涉及以色列军队(IDF)以及在加沙地带的军事行动中使用名为“ Lavender(薰衣草)”的人工智能系统。
这项先进技术已被用来识别和选择爆炸期间要打击的目标,但其实施引起了对道德、法律和人道主义影响的众多批评和担忧。
薰衣草系统如何运作
根据发表的深入调查显示,Lavender 是一种复杂的算法,旨在分析大量情报数据并自动识别可疑的巴勒斯坦武装分子。
Lavender 是以色列国防军现代化计划的一部分,旨在通过使用预测人工智能来提高军事行动的有效性。
该算法基于从不同来源收集的海量情报数据集,包括:
- 电话拦截。
- 移动设备的地理定位。
- 通过社交媒体进行分析。
- 分析个人动作和习惯。
以色列国防军实施该系统是为了加快和自动化识别可疑武装分子及其可疑藏身之处的过程。
在最近的冲突中,特别是在2021 年的加沙攻势中,Lavender 被用来以前所未有的速度和效率定位和打击目标。
Lavender 通过机器学习和预测分析算法处理大量数据。
该系统根据以色列国防军预先定义的标准,识别与哈马斯和其他武装派别武装分子相关的行为和活动模式。
决策过程是这样的:
- 从数字情报源收集数据。
- 分析行为模式以识别嫌疑人。
- 生成目标列表,其中包含有关移动和地址的详细信息。
- 官方通常在几秒钟内快速验证。
- 通过有针对性的空袭实施攻击。
加沙冲突期间,Lavender 系统识别出大约 37,000 个潜在目标。
这个令人印象深刻的数字表明,决策的自动化程度已经达到了前所未有的程度。虽然该系统旨在“协助”以色列国防军军官,但决策通常几乎是自动验证的,几乎没有留下彻底的人工验证的空间。
在许多情况下,一个目标在一分钟之内就被批准进行轰炸。
快速但有争议的决策过程
尽管 Lavender 声称其目的是提高准确性并减少人为错误,但它也并非没有缺陷。根据调查,决策过程中的人为干预往往很少。
一旦人工智能识别出目标,警员进行验证的时间极短,往往不到一分钟。
Lavender 系统的采用使以色列国防军能够以前所未有的速度采取行动。然而,这种速度也伴随着许多重大风险。
当嫌疑人与家人在一起时,空袭经常袭击私人住宅,导致大量平民伤亡。
据报道,在某些情况下,人工智能依赖于不完整或不正确的数据,导致错误识别,造成悲惨的后果。
Lavender 的估计错误率为10%。虽然这个百分比从统计角度来看似乎很低,但应用于数以万计的目标时,它可能会导致数百甚至数千人因人工智能错误而丧生。
违反国际人道主义法原则
国际人道法确立了战争的基本原则,例如战斗人员与平民的区别以及使用武力的相称性。
使用像 Lavender 这样的人工智能系统,在人类控制有限的情况下,会使这些原则的遵守面临风险。
基于自动识别的爆炸可能导致违反《日内瓦公约》,该公约要求采取一切可能的预防措施来保护平民。
人权观察和国际特赦组织等人权组织对这些技术的使用表示深切关注。
人工智能在没有充分监督的情况下采取行动的能力对生命权构成了威胁,并可能构成一种技术先进但道德上值得怀疑的“即决正义”形式。
与其他战争环境中使用人工智能的比较
在冲突中使用人工智能并非以色列国防军独有。同样在乌克兰,在俄罗斯入侵期间,人工智能技术被用来优化防御和识别敌方目标。
Lavender 的案例因其使用的广度和决策速度而脱颖而出。
在乌克兰,人工智能主要用于防御目的,而在加沙,人工智能已被用于大规模进攻性轰炸行动。
这种区别引发了关于如何在未来的冲突中监管人工智能以及自动化军事决策的道德限制的问题。
自动战争的未来
现代冲突中对人工智能系统的日益依赖可能会从根本上改变战争的发动方式。
专家警告说,战争决策的逐步自动化可能会导致相关人员的“道德脱离” ,从而降低对军事行动后果的认知。
此外,对于在冲突中使用人工智能缺乏明确的国际监管可能会开创一个危险的先例,在没有充分控制的情况下激起技术军备竞赛。
如果没有严格的指导方针,侵犯人权的风险就会增加。
Lavender 的案件给国际社会敲响了警钟。在冲突中采用人工智能需要深入思考并实施严格的法规,以确保这些技术的使用符合道德和负责任。
自动化战争的未来已经成为现实,世界必须极其谨慎地应对这一挑战,以避免侵犯人权和平民苦难进一步升级。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...