2024年3月16日 星期六

Drone 人工智慧戰爭其實是什麼樣子

無人機 Maryln Monroe

GPS

Signal

Anti-interference

察打一體

翼龍 II

Microwave 4T
1T = 10,000 Gauss

人工智慧戰爭 (GPT-4 生成)

人工智慧戰爭 II (GPT-4 生成)


人工智慧戰爭其實是什麼樣子
美國東部時間 2024 年 4 月 10 日
大衛華萊士-威爾斯

11 月,以色列左翼媒體 +972 雜誌和 Local Call 發表了記者尤瓦爾·亞伯拉罕 (Yuval Abraham) 對以色列國防軍使用人工智慧系統識別加沙目標的令人不安的調查——一位前情 報官員稱其為“大規模暗殺工廠。”

到了年底,人工智慧世界末日的景象籠罩在陰影之中——這種景像 有時會出現失控的自主 武器系統——你可能會預料到會出現巨大而令人震驚的反應。相反,有關人工智慧部分發動 戰爭的報導只在以色列在加薩行為的爭論中引起了小小的漣漪。

也許部分原因是——在令人不安的程度上——專家們承認,人工智慧的形式已經在世界領先 的軍隊中廣泛使用,包括美國,至少自奧巴馬政府以來,五角大廈一直在為軍事目的開發 人工智能。

根據《外交事務》報道,目前至少有 30 個國家正在運作具有自主模式的防禦系 統。我們中的許多人仍然將人工智慧戰爭視為科幻小說中的未來願景,但人工智慧已經融 入了全球軍事行動,就像它融入了我們的日常生活一樣。 構成威脅的不僅是失控的人工智慧。控制不足的系統也會造成傷害。

《華盛頓郵報》將烏 克蘭戰爭稱為“超級發明實驗室”,標誌著“人工智慧無人機戰爭的革命”。五角大廈正在開發 針對人工智慧驅動的無人機群的應對措施,這種威脅隨著無人機的對抗而變得不那麼遙 遠。也門胡塞武裝在紅海發動攻擊。根據美聯社報道,一些分析人士表示,「無人機將在 沒有人類幫助的情況下識別、選擇和攻擊目標」只是時間問題。

埃利奧特·阿克曼和北約前 盟軍指揮官、海軍上將詹姆斯·斯塔夫里迪斯上個月在《華爾街日報》上預測,此類集群由 運行速度太快、無法人類監督的系統指揮,「即將改變軍事力量的平衡」。其他人則表示 未來就在這裡。

就像入侵烏克蘭一樣,加薩的猛烈攻勢有時看起來像是一種倒退,在某些方面更像是20世 紀的全面戰爭,而不是美國人已經習慣的平叛和明智的戰役。到 12 月,加薩近 70% 的房屋 和一半以上的建築物遭到破壞或摧毀。據聯合國稱,如今,只有不到三分之一的醫院仍在 運轉,110 萬加薩人面臨「災難性」糧食不安全。這可能看起來像一場老式衝突,但以色列 國防軍的攻勢也是軍事未來的不祥暗示——這一切都是由反恐戰爭開始以來才出現的技術制 定和監控的。

上週+972和Local Call發表了亞伯拉罕的後續調查,非常值得全文閱讀。 (《衛報》也發表 了一篇摘自同一篇報道的文章,標題為「機器冷酷地干了這件事」。該報道已引起美國國 家安全發言人約翰·柯比的注意,並由艾達·圖馬-斯利曼進行了討論以色列議會中的阿拉伯議 員,以及聯合國秘書長安東尼奧·古特雷斯,他說他對此「深感不安」。)

11 月的報告描述 了一個名為Habsora (福音)的系統,根據該系統,接受亞伯拉罕採訪的現任和前任以色 列情報官員確定了「軍隊聲稱武裝分子活動的建築物和結構」。這項受到以色列國防軍質 疑的新調查記錄了另一個名為 Lavender 的系統,該系統用於編制可疑戰鬥人員的「殺戮名 單」。他寫道,薰衣草系統“在對巴勒斯坦人前所未有的轟炸中發揮了核心作用,特別是在 戰爭的早期階段。”

亞伯拉罕認為,從功能上來說,加薩的毀滅——超過 30,000 名巴勒斯坦人被殺,其中大多 數是平民,包括 13,000 多名兒童——提供了人工智慧發動戰爭的願景。「根據消息來 源,」他寫道,「它的影響力儘管該演算法公認的錯誤率為 10%,但他們基本上將人工智 慧機器的輸出視為「人類決策」。一位消息人士告訴亞伯拉罕,人類通常只會花 20 秒的時 間查看每條推薦——“只是為了確保薰衣草標記的目標是男性”,然後再給推薦貼上“橡皮圖 章”。

人工智慧戰爭的前景提出的更抽象的問題不僅涉及機器錯誤,還涉及最終責任:誰應對在 很少或根本沒有人類輸入或監督的情況下進行的攻擊或活動負責?但是,雖然軍事人工智 慧的一個噩夢是它獲得了決策控制權,但另一個噩夢是它可以幫助軍隊提高已經做出的決 策的效率。正如亞伯拉罕所描述的那樣,薰衣草並沒有因為自己的失誤而在加薩造成嚴重 破壞。相反,它被用來以非常特殊的方式權衡可能的軍事價值和附帶損害——不太像軍事判 斷的黑匣子神諭或道德責任的黑洞,而更像是以色列國防軍所揭示的戰爭目標設計。

亞伯拉罕報道稱,10 月的某個時刻,以色列國防軍僅在可能的附帶損害限於15 或20 名平民 死亡的情況下才會針對拉文德確定的初級戰鬥人員——考慮到沒有任何附帶損害被認為是可 接受的,這個數字大得驚人。低階戰鬥人員。亞伯拉罕報告說,即使這意味著殺死 100 多名 平民,更多高級指揮官也將成為攻擊目標。

亞伯拉罕寫道,第二個程序名為“爸爸在哪 裡?”,用於在瞄準戰鬥人員之前追踪他們的家,因為在這些地點及其家人一起跟踪他們比 追踪他們到軍事前哨“更容易”。為了避免浪費智慧炸彈瞄準可疑的初級特工的家,以色列國 防軍越來越多地選擇使用精度低得多的啞炸彈。

這並不完全是科幻小說中的黑暗人工智慧魔法。這更像是綠野仙蹤的現象:乍看之下似乎 是超凡脫俗的奇觀,結果卻是一個人在窗簾後面擺弄開關。事實上,以色列國防軍在對新 報告的回應中表示,它“不使用識別恐怖分子的人工智慧系統”,並寫道“資訊系統只是分析 人員在目標識別過程中的工具。”以色列國防軍此前曾吹噓其使用人工智慧來瞄準哈馬斯, 據《國土報》報道,以色列國防軍在加沙建立了廣泛的「殺傷區」,任何進入其中的人都被認為是恐怖分子並被槍殺。 (以色列國防軍否認已劃定殺傷區域。)在CNN 上,分析師 巴拉克·拉維德(Barak Ravid) 向安德森·庫珀(Anderson Cooper) 講述了他與一名以色列預 備役軍官的談話,這名軍官告訴他,「這些命令基本上是來自地面指揮官的」 ——射殺每 一個處於戰鬥年齡的人,」這一描述與前中央情報局局長兼國防部長萊昂·帕內塔上週的評 論相符,他說:“根據我的經驗,以色列人通常會開槍,然後提出問題。”

事情接下來會走向何方?這個問題不僅適用於以色列在加薩的行為或烏克蘭的無人機升 級,無人駕駛飛機的混戰已經影響了戰爭的進程,俄羅斯廣泛部署了電子戰工具來幹擾烏 克蘭的無人機,根據《戰爭》雜誌的分析在岩石上,俄羅斯「試圖在整個殺傷鏈的自動化 方面取得進展」。 新美國安全中心的保羅·沙爾 (Paul Scharre)在 2 月的一篇文章《人工智慧戰爭即將到來的 危險時代》中勾勒了一些近期可能的未來,其中包括自主集群相互獨立作戰、高頻作戰等 等。交易機器人可能會賦予人工智慧管理現有核武庫的權力。

他還提出了一項積極主動且可能樂觀的五點計劃:政府同意對軍事人工智慧進行人類監 督,禁止以人為目標的自主武器,制定預防事故的最佳實踐協議,各國限制對核的控制以 及各國採用無人機行為常規指引。沙爾寫道:「如果沒有限制,人類將面臨走向危險的機 器驅動戰爭的未來的風險,而採取行動的窗口正在「迅速關閉」。

並非所有人都認為我們正在接近軍事奇點,超過這個奇點戰爭將變得面目全非,而不是演 變得更慢,表面之下有更多變化。 「軍事革命往往沒有其支持者最初設想的那麼激進,」 軍事學者安東尼·金在《岩石上的戰爭》中寫道。雖然他認為我們還沒有接近人類監督的終 結,並稱我們「不太可能」很快就會進入一個真正自主戰爭的世界,但他也相信「數據和 人工智慧是——甚至可能是當代戰爭的關鍵情報功能。”事實上,「任何想要在未來戰場上 獲勝的軍事力量都需要利用大數據的潛力——它必須掌握充斥著戰場空間的數位化訊息,」 他寫道。 “人類根本沒有能力做到這一點。”據推測,人工智慧會。

Sora (2/14)

Sora (2/14)

文生視頻

從現存影片學習與了解物理規律

速度與揚塵 陽光照射與塵霧

生物行為

未來: 直接看到的攝像頭學習

虛實難分 分水嶺: 懷疑與猜忌 吞噬真實

想像與真實

源頭信息的污染

舞龍 不需造模

深度造假

詐騙 兩億元 香港

人類文明的朝霞或餘暉