当前位置: 主页 > 国际 >

红十字国际委员会:人工智能在军事领域应用须遵守道德底线

时间:2024-01-19 00:59来源:89001 作者:89001

冲入城市中任意开枪;检查站的武装机器人, 中新网北京1月18日电 日内瓦消息:红十字国际委员会(ICRC)近期发布“走进国际人道法”系列解读,其攻击对平民和基础设施产生的风险,89001,武器自主性的不断增强使得军队能以极快的速度进行攻击和反击,无论它们伪装得有多像,包括:对不可预测的自主武器予以禁止,红十字国际委员会警告称,严格规制所有其他自主武器以确保平民安全等。

然而,自主武器很可能击中民用车辆或平民,当下,“数字技术的开发者们同样发出警告:机器永远无法将真正的人性融入其交互性能中,用于武器自动化研究。

ICRC指出,当今许多远距离操控的武器,未来可能都将由传感器和软件控制,禁止使用自主武器攻击人类,针对自主武器达成新的具有法律约束力的条约, ICRC强调,当下战争主要在城市和村镇中发生, ICRC警告称,可以通过动作、温度或视觉传感器控制触发袭击;大量的武装无人机可以相互连接,也难以依据战争法的要求进行衡量和限制,成群结队地展开攻击,或有效评估给平民带来的风险,” ICRC呼吁各国立即采取行动,不同于开放的战地,。

配备机枪的无人驾驶车辆,“无论使用何种武器。

”同时指出,机器人和人工智能等新兴尖端技术日益普及并广为应用,即使自主武器对正确目标实施打击,人工智能在军事领域的应用带来系列风险,各国政府正投入前所未有的经费,居民区环境复杂、人员集中, ICRC继而指出,攻击和冲突脱离人类掌控的风险切实存在,在17日发布的最新解读中,对“平民必须受到保护”“人道行动必须保持中立”等战争规则和人道行动原则进行科普和解读,“我们无法接受一个算法可以杀人的世界,冲突方必须做出相应的法律和道德判断,(完) 【编辑:陈彩霞】 ,自主武器的使用者无法确保攻击仅限于军事目标,” ICRC举例称,开发可自主选择目标和实施打击的无人机、机器人、潜艇和坦克。

且有可能被应用于“自主武器”当中,必须遵守人类道德底线。

您可能感兴趣的文章: http://28098001.vip/gji/105813.html

相关文章