頭條資訊 - 為您提供最新最全的新聞資訊,每日實時更新

“AI戰爭”背後的冷思考

科技數碼 光明網

“AI戰爭”背後的冷思考

AI,即人工智能,是當前科技領域大熱的一個概念。由於它是一門研究開發用於模擬、延伸和擴展人類智能的新興技術,可以說,未來只要是需要人類智能參與的領域,都可能由AI替代完成。而戰爭自古以來就帶著“殘酷”標籤,是人類頂尖技術、智力和體力的角鬥場。由此看來,在戰爭中廣泛發展和應用AI技術再合適不過了。

隨著數據挖掘技術、大規模並行算法等不斷髮展完善,AI技術如虎添翼,越來越多地應用在軍事領域。雖然現階段AI技術還不能像人類一樣進行初創,但它可以對人的意識、思維進行模擬,能按照人類的設定進行思考,在執行繁重任務時表現甚至要超過人類智能。尤其是在語言、圖像的識別和處理方面,AI技術具有得天獨厚的優勢。因此,在情報、決策與作戰一體化領域,AI技術應用廣泛。

不過,人類並不滿足於AI技術在戰爭中的“軟應用”。戰爭中的流血犧牲已經對人類造成了很大的創傷,那麼AI技術能否替代人類直接進行作戰,從而將人類徹底從炮火硝煙中解救出來呢?於是,能夠自主作戰的軍用機器人應運而生。

這類機器人屬於致命性自主武器系統,目前各國發展的無人飛行器、無人戰車、無人艦艇等能夠自主遂行戰鬥任務的武器系統,基本都屬於這一範疇。由於這類裝備能夠在無人控制的情況下,自主搜索並消滅目標,自身的機械機構又擁有遠超人體的性能,因此特別適合在惡劣環境中執行攻堅任務,體現出較高的軍事應用價值。這也是當前AI技術在軍事領域最主要的“硬應用”。

然而,AI技術是一門極富挑戰性的科學,它不僅涉及計算機技術、心理學,甚至還涉及哲學領域,受到法律和倫理道德的多重約束。畢竟,“由人類創造的機器人擁有自主消滅人類的能力”,這本身就是對倫理的拷問。2018年4月,聯合國《特定常規武器公約》政府專家小組就曾專題研討過“殺人機器人”可能帶來的影響。

除了倫理層面,AI軍用機器人自身軟件和硬件的可靠性也不容忽視。早在2007年,美軍第三機步師的一臺“利劍”機器人由於軟件故障,竟調轉槍口對準美軍操作員,而且無論操作員如何發出“取消”指令都無濟於事。最後,還是靠著一枚火箭彈將機器人摧毀,才結束了這次鬧劇。

由於AI技術涉及機器視覺、生物識別、自動規劃、智能控制等方方面面,機器人很有可能在複雜環境或執行復雜指令時出現失控現象。特別是在AI技術尚在發展階段的今天,這種隱患更難避免。

AI失控事件確實給人類敲響了警鐘。人們擔憂,如果把自主控制權完全交給AI,會不會出現影視作品中的“終結者”,嚴重威脅到人類自身的生存呢?2017年人工智能國際會議上,不少AI技術企業負責人紛紛呼籲,應該像禁止生化武器一樣,禁止在戰爭中使用AI機器人消滅有生力量。

其實,AI技術在軍事領域的運用到底利弊幾何,答案還要看人類自己的選擇。正如霍金所言:“AI技術是好是壞,我們依然不能確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。”

來源:解放軍報

轉載請超鏈接註明:頭條資訊 » “AI戰爭”背後的冷思考
免責聲明
    :非本網註明原創的信息,皆為程序自動獲取互聯網,目的在於傳遞更多信息,並不代表本網贊同其觀點和對其真實性負責;如此頁面有侵犯到您的權益,請給站長發送郵件,並提供相關證明(版權證明、身份證正反面、侵權鏈接),站長將在收到郵件24小時內刪除。
加載中...