电脑技术汇总_电脑技术网_电脑技术官网

电脑知识网 > 电脑故障 > 硬件故障 > 正文

擺脫人類控制?無人戰爭≠“無人的戰爭”

网络整理 2018-06-08 17:57

擺脫人類控制?無人戰爭≠“無人的戰爭”

  還記得電影《戰狼2》中挂著機槍在空中到處“突突”的殺人無人機嗎?還記得科幻片《黑鏡》中被黑客入侵的機器“殺人蜂”的恐怖場景嗎?人與武器的關系,是軍事領域亙古不變的話題。試想,如果賦予智能無人作戰系統“生殺大權”,甚至實現“機器代理人戰爭”,那麼《黑鏡》等電影中的場景或將變為現實。避免無人作戰系統擁有“自主開火權”,確保戰爭人類可控,或將成為智能戰爭時代人類的“自我救贖”。

  智能戰爭面臨失控風險

  人工智能技術與無人化作戰系統,正加速叩開未來智能化戰爭的大門。

  也別高興得太早,智能機器人“大兵”若真的在戰場上沖鋒陷陣,未來戰爭或將面臨巨大的失控風險。2015年7月,美國一台“發瘋”的機器人曾“失手”將一名裝配工人殺死。據說,伊拉克戰場上,美軍的“劍”式戰斗機器人曾無故將槍口指向己方指揮官。

  在復雜戰場環境下,擁有高度智能的無人作戰系統極有可能出現識別錯誤、通信降級甚至被敵電磁、網絡攻擊后“倒戈反擊”等情況,而諸如濫殺無辜、系統失控等更是給智能武器的軍事應用帶來了巨大隱患。

  其實,人們對於智能武器系統的擔憂,從命名伊始就初見端倪。機器人的英文名為“Robot”,其原意就是“農奴式被強迫的勞動者”。未來的智能化戰爭,戰場上的絕大多數作戰任務都將交由“被強迫勞動”的戰斗機器人來完成。一旦人類授予了智能武器系統“自主開火權”,這群毫無感情、不知疲倦的鋼鐵機器會不會濫殺無辜,甚至調轉槍口成為“人類終結者”?這是我們必須直面的問題。

  一方面,誰能為智能武器的“濫殺無辜”來買單。人工智能武器的智能化一旦超過一定程度,是否會出現自作主張甚至濫殺無辜的情況,我們不得而知。就拿美軍對藏匿的恐怖分子開展定點清除行動來說,無人機在殺死武裝人員的同時也可能“誤殺”了大量平民,這還是在有人干預的情況下。一旦人被完全排斥在“戰爭回路”之外,智能作戰平台由於自身的“不靠譜”極有可能造成武力濫用,或將對戰爭倫理道德產生巨大沖擊。

  另一方面,智能武器的戰場失控程度難以估量。武器的智能化程度越高,其內部控制軟硬件的規模就越龐大、復雜,出現故障的概率也相應增大。資料顯示,美國空軍一架無人機曾突然自動向地面一處重要設施發射導彈,而事故原因是飛機的火控系統出了故障。在戰備值班與演習過程中,美軍也多次出現通用戰場態勢分析系統因軟件故障而被迫中斷的情況,進而導致作戰方案無法按時生成。

  絕不能離開人類的控制

  人工智能和無人作戰帶給人類的究竟是威脅還是發展,關鍵在於如何利用。人作為“戰爭回路”的主體,必須牢牢掌握未來智能戰爭的“開火權”。

  人們在研制智能無人作戰系統時,為防止出現因失控而導致的意外事故,要求操作人員在必要時可以解除系統功能。英國空軍研制的“雷神”無人飛行器可攜帶武器直接攻擊地面目標,盡管該型無人機上裝備有可識別危險目標的機載計算機,但目前依然主要採用由地面人員控制的工作模式,發起攻擊時必須通過地面人員授權才能開火。

  此外,還可以在智能作戰平台中提前進行設置。一方面,可以通過代碼控制智能武器的“大腦”。在智能武器出廠啟用之前,人們可以提前設置“后門”式自毀模塊,從而在需要時令智能武器徹底死機或自行報廢。同時,由於智能武器的控制中樞是計算機,可在編寫軟件時加入相關控制程序。另一方面,智能武器的攻擊目標和攻擊方式也應受到明確限制。例如,如何使“武裝自主系統”摧毀敵方武器而非作戰人員,便可以通過設計來實現。

  當然,更直接的辦法是隻為智能武器平台配備非致命性武器。未來,電磁脈沖武器、網絡攻擊武器、高功率微波武器等新概念武器,或將為智能武器平台的安全使用提供新的技術思路。

  人機協同是“最優解”

  無論未來的武器系統如何高度智能化,人是戰爭的主導因素這一基本條件不會改變。未來智能化戰爭,允許改變的只是人與武器裝備的戰場協作方式,人機協同將成為無人武器戰場運用的“最終答案”。

  目前,美軍正在進行“有人-無人”協同作戰試驗,其中較為著名的當屬“忠誠僚機”計劃。“忠誠僚機”計劃就是為有人戰斗機找一群忠誠可靠的無人僚機,從而大幅提升人機協同作戰能力。據專家估算,即便擁有極高計算能力,無人僚機在響應或執行指令時通常會有2秒鐘的滯后,這在瞬息萬變的智能化戰爭中是“致命傷”。考慮到人類大腦可以更為迅速地響應事態發展,人類飛行員依舊是未來戰場不可或缺的作戰主力。

Tags:智能武器(1)戰爭倫理(1)無人作戰平台(1)第四代戰斗機(1)濫殺無辜(1)戰(1)

转载请标注:电脑技术网——擺脫人類控制?無人戰爭≠“無人的戰爭”

搜索
网站分类
标签列表