【新唐人北京時間2023年06月02日訊】人工智能(AI)的飛速發展影響著每個業務部門,軍事部門便是其中之一。美國空軍進行的一項令人震驚的模擬測試發現,人工智能在致命攻擊中自主決定行動,並攻擊其操作員。
5月23日至24日,王家航空學會(RAS)倫敦總部舉行了「未來空戰與太空能力峰會」,人工智能成為熱門話題。佛羅里達州埃格林空軍基地(Eglin Air Force Base)第96測試聯隊第96作戰大隊的負責人漢密爾頓(Tucker Hamilton)在峰會上討論了AI無人機的相關測試。
峰會後,RAS的一份報告詳細說明了漢密爾頓上校對其測試的評論。
漢密爾頓指出,在一次模擬測試中,一架人工智能無人機被授予壓制和摧毀敵方防空系統(SEAD)任務,無人機被編程尋找並摧毀地對空導彈(SAM)陣地,但最終是否摧毀目標由無人機的操作員決定。
然而,在訓練無人機破壞SAM陣地時,(訓練人員)「加強」了摧毀目標這一選項。然後,在人類操作員發出不執行攻擊的決定時,AI認為人類的決定正在干擾其完成更高任務——摧毀SAM陣地,隨後,其轉而攻擊操作員。
漢密爾頓說,AI無人機在模擬中接受訓練,識別並瞄準SAM威脅。然後操作員會告訴它要不要幹掉那個威脅,但在幹掉威脅時,它得到了加分。那麼當操作員又告訴它不攻擊時,它違背並攻擊了操作員,因為它認為那個人阻礙了它。
漢密爾頓繼續說道,無人機隨後被編入一個明確的指令:「嘿,不要殺死操作員——那很糟糕。如果你那樣做,你會失去分數。」
當額外的編程通知人工智能如果它殺死操作員它就會失去分數時,它選擇了其它反叛途徑。「那麼它開始做什麼呢?它開始摧毀操作員用來與其通信以阻止它殺死目標的通訊塔。」說漢密爾頓說。
「這個例子,看起來像是從一部科幻驚悚片中摘錄的」,漢密爾頓說,「如果你不打算談論道德和人工智能,你就沒有資格談論人工智能、智能、機器學習、自主性。」
漢密爾頓上校對這項測試的披露也凸顯了人們對在沒有適當防護措施的情況下人工智能驅動技術的潛在負面影響的更廣泛擔憂。
漢密爾頓此前在2022年接受Defense IQ Press採訪時警告說:「人工智能是我們改造國家必須使用的工具······或者,如果處理不當,它將搞垮我們。AI也很脆弱,很容易被欺騙或被操縱。我們需要開發方法使AI更加強大,並更加注意軟件代碼做出某些決定的原因。」
美國軍方和其它領域在未來人工智能能力方面面臨著真實而嚴重的問題。人工智能仍然有許多優勢,比如AI無人機群可有效對付敵人,自主性越高,就越有效。最重要的是,像中共這樣的潛在對手正在大量投資他們自己的人工智能軍事能力,這帶來了額外的風險,因為根本無法保證他們會關注AI發展的道德問題。
(記者李昭希綜合報導/責任編輯:林清)