当前位置: 首页 > 科技资讯 >

北京香山论坛再议AI:以规则“筑笼” 谨防“潘多拉魔盒”

时间:2020-01-07 05:48:33
中新社北京十月二十二日电(黄钰钦李京泽)在20日至22日举行的第九届北京象山论坛上,人工智能和未来战争相关问题在去年首次被纳入论坛范围后,再次成为论坛的重要议程

中新社北京十月二十二日电(黄钰钦李京泽)在20日至22日举行的第九届北京象山论坛上,人工智能和未来战争相关问题在去年首次被纳入论坛范围后,再次成为论坛的重要议程之一。

目前,人工智能已成为一项可能产生战略影响的重要军事技术。另一方面,在世界大国争夺军事情报的同时,有关的国际规则仍是空白,一度引起国际社会的广泛关注。

面对可能存在的不确定性挑战,将人工智能军事应用保留在可控的笼中已成为许多国家专家的共识。一些军事专家提出,制定相关国际规则的实质是指导军事情报的合理发展,警惕人工智能成为失控的潘多拉盒子。

泰国皇家武装力量总部国防研究所战略研究中心主任普姆杰少将表示,应合理监测人工智能带来的风险,各国需要考虑如何建立公平和公平的机制,充分利用人工智能为人类服务。

在军事领域,人工智能已经成为世界上的一个热点问题。Pumger说,由于特定的武器会对人造成更大的伤害,因此有必要解决当前该地区和国际一级缺乏国际规则的问题。

根据日本亚太倡议智库高级研究员加藤佳彦(YoshihikoKato)的分析,目前新武器系统的发展速度太快,而国际社会制定框架和监管的速度相对较慢。因此,有必要制定一套限制自主武器的国际规则,同时保留人工智能带来的积极因素。

在谈到制定人工智能军事化规则时,许多专家通过比较核武器的发展和限制,指出国际社会通过长期努力,形成了一系列国际规则,如核不扩散条约,使核武器的实际作战效果让位于威慑。

军事科学院战争研究院研究员、北京象山论坛秘书处主任赵小卓说,人工智能是积极的还是消极的,取决于相关规则是好是坏。像核武器一样,核扩散将构成巨大威胁,而核不扩散条约虽然不完美,但发挥了限制性作用。

他指出,在人工智能对战争形式及其破坏力产生影响的早期阶段,象山论坛在议程的框架内进行了讨论,希望国际社会予以关注。认识到最初技术的负面性质总是少之又少。希望通过广泛的讨论,国际社会能够达成共识,逐步控制人工智能的消极一面,发展积极的一面。

鉴于国际规则需要重点关注的领域,这里有评论和分析认为,相关国际规则的制定应侧重于军事情报安全的关键领域。如果将对人或载人平台开火的权利移交给冷智能武器,很可能导致误杀,违反道德和道德,这也是发展军事情报的主要风险。

北京象山论坛高级顾问、退役少将姚云竹指出,在任何情况下,最终决定权都应落在人民手中,不应让好莱坞电影中的人类毁灭情节成为现实,应以共同的人类价值观为基础,建立基于共同道德认同的相关规则。

赵小卓强调,与核武器在获取、发展、使用等原材料方面的限制相比,人工智能的军事化可能更多地控制在使用层面,因为人工智能与民用设备密切相关,不能仅限于生产来源。