|
|
此文章由 dootbear 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 dootbear 所有!转贴必须注明作者、出处和本声明,并保持内容完整
金融时报社论:伊朗战争凸显AI在战场上的危险正在上升
必须尽快对致命性自主武器系统的使用设限。
在伊朗,人工智能已经进入战场。美军正在利用这项技术强化决策、帮助筛选海量数据以识别打击目标,并改善军事后勤。像这样的冲突,几乎必然会成为前沿技术的试验场。这反而更加说明,必须尽快建立有效治理机制,并划出清晰边界,限制AI在武器系统中何时使用、如何使用。
其中一个风险,在于对数据缺乏足够控制,而数据正是所有AI系统赖以生存的命脉。模型的表现,完全取决于它所接受训练的信息质量。最近伊朗南部一所女子学校遭导弹毁灭性打击,目前没有证据表明是AI出了错,但相关调查应重点审视:用于选定目标的数据,究竟是如何被核实的。
另一个风险是,那些根据AI系统建议来作出生死决定的人,可能越来越难以对机器的判断提出质疑。一些专家警告说,在当前伊朗冲突中,这种情况可能已经出现,因为人类很难真正理解AI模型在评估时纳入的全部因素。
还有一种压力也在上升,那就是干脆把人类完全排除在决策链之外。比如当敌方扰乱通信链路、导致武器无法维持人类直接控制时,这种冲动就会更强。美国已经在研发完全自主的无人机,准备在未来可能出现的中国攻击台湾时使用。
这使得限制致命性自主武器系统,也就是LAWS的使用,变得更加紧迫。至少在目前,对这类系统的使用实施暂停,似乎是必要的;而从长远看,最终甚至可能需要全面禁止。
原因之一,是它们缺乏足够可靠性。如今的AI建立在概率系统基础上,本身容易出现所谓“幻觉”,因此还远不足以被赋予决定人生死的权力。也正因为如此,Anthropic反对把其AI完全交由五角大楼用于机密任务控制。
美国政府本月早些时候甚至因此采取强硬措施,下令把这项技术排除出军事供应链。
反对自主武器还有一个道德层面的理由:夺取人的生命这一决定,不该外包给机器。即使武器实现完全自主,在某个环节上,仍然会有人负责启动它,因此责任链也许仍未完全断裂。反过来说,也可以提出支持自动化武器的道德理由,如果它们真的能够减少导致平民伤亡的人为错误。
但限制AI在战场扩散的最有力理由,仍然是:和其它具有颠覆性的技术一样,它可能会从根本上改变战争本身的性质。我们无法预见这种变化会以哪些方式发生,但一些已经被提出的可能性本身就极其可怕,比如利用大批低成本无人机组成蜂群,去追踪并杀死大量对手。
一个良好的开端,是让美国和中国这两个全球AI超级大国,先就各自使用自主武器的方式达成一些实际限制,同时建立机制,阻止这项技术进一步扩散。
另一个起点,则是让联合国相关工作组尽快得出结论。
这个小组多年来一直在讨论是否应像禁止化学武器和生物武器那样,对自主武器实施国际禁令。
如今,采取行动的必要性正变得越来越迫切。
每一次新的国际冲突爆发,AI对战争的渗透只会进一步加快。

来源:
https://www.ft.com/content/5d294db8-6917-4085-ba8a-3afbc439b999
The editorial board |
|