AI 改變戰爭的方式:從終結者幻覺到全視之眼的時代
Original Video Description
AI正在改变战争——但不是你想的那样。忘掉终结者、忘掉天网,真实战场上的AI从未自主杀过一个人。它做的是更可怕的事:让你无处可藏。《AI、自动化与战争:军事-科技复合体的兴起》(AI, Automation, and War: The Rise of a Military-Tech Complex)(安东尼·金 Anthony King 著),基于对126位美军、英军、以色列军方和科技公司内部人士的深度访谈,揭示了一个颠覆认知的军事AI真相:军事大国真金白银砸钱部署的AI,根本不是“终结者”那样的杀人机器人,而是人类史上最强大的“天眼”情报机器——它正在重塑战场,却带来两个谁也没想到的惊人后果……
本期看点: • 🔍 AI不是"天网"而是"天眼":从乌克兰到加沙,AI如何作为史上最强情报机器精确锁定俄军总参谋长?以色列的"福音"系统如何将一年的目标生成量压缩到一天? • 🏭 军事-科技复合体的崛起:为什么五角大楼的AI预算只是硅谷巨头的零头?Palantir(帕兰泰尔)如何从PayPal反欺诈系统一步步渗透进美国军事核心?穿便装的程序员为何坐进了作战指挥部? • ⏳ AI反而让战争变慢了:巴赫穆特为何在AI加持下打成了一战式堑壕战?精确打击能力越强,为什么机动反而越危险? • 🚀 马斯克星链事件的警示:一个科技公司CEO如何单方面否决了一次军事行动?当战争的关键基础设施掌握在私人手中,国家主权意味着什么? • 🧠 终结者幻觉为何站不住脚:这一代AI的能力边界在哪里?为什么战争决策永远不可能交给算法?
时间戳: 00:00 开场:你对AI战争的想象,可能全错了 01:42 AI在真实战场上到底在做什么? 04:04 军方为什么需要AI?40TB数据的灾难性成功 05:20 梅文Maven计划:第一个里程碑式军事AI项目 07:19 以色列"福音"系统:一天顶过去一整年 09:36 "薰衣草"系统:天眼的阴暗面,20秒审核一个目标 11:05 乌克兰战场:AI如何精确锁定俄军总参谋长 13:16 水面之下:谁建造了这台情报机器? 14:48 Palantir(帕兰泰尔)发家史:从PayPal反欺诈到军事核心 19:55 军事-科技复合体的核心含义 21:01 反直觉后果一:AI让战争变慢了 23:19 反直觉后果二:马斯克星链与战争的准私有化 26:36 终结者幻觉为什么站不住脚 30:07 总结:AI不是天网,是天眼——真正的问题是谁控制这双眼睛
书籍详情: Title: AI, Automation, and War: The Rise of a Military-Tech Complex Author: Anthony King Publisher: Princeton University Press Date: 2025-08 ISBN: 9780691265148 Summary: This book argues that AI is unlikely to replace human strategic judgment in war. Instead of endorsing science-fiction visions of autonomous battlefields run by killer robots, Anthony King examines how armed forces have actually used AI over the past decade. He shows that AI’s main military value lies in processing vast amounts of data faster than humans can, thereby improving intelligence, situational awareness, planning, targeting, and cyber operations. A central claim of the book is that these capabilities are driving organizational change inside the military, especially through the integration of civilian technologists into operational headquarters. King describes this evolving partnership between armed forces and technology firms as a new “military-tech complex,” one that may become as influential in the twenty-first century as the military-industrial complex was in the twentieth. (本书认为,人工智能不太可能在战争中取代人类的战略判断。安东尼·金并未接受那种由“杀手机器人”主导自主战场的科幻想象,而是考察了过去十年各国军队实际上如何使用 AI。书中指出,AI 在军事上的核心价值,主要在于比人类更快处理海量数据,从而提升情报分析、态势感知、作战规划、目标锁定与网络作战能力。作者进一步强调,这些能力正在推动军队内部的组织变革,尤其表现为民间技术人员被纳入作战指挥体系之中。金将这种军队与科技企业日益紧密的合作关系称为新的“军事—科技复合体”,并认为它在 21 世纪的影响力,可能会如同 20 世纪“军事—工业复合体”一般深远。)
#AI与战争 #精读一本书 #军事AI #AnthonyKing #军事-科技复合体 # Palantir
當談到 AI 與戰爭,多數人腦中浮現的是《終結者》裡的天網——自主決定消滅人類的殺手機器。然而,軍事社會學家 Anthony King 在《AI、自動化與戰爭》中提出一個顛覆性觀點:這種科幻想像完全是幻覺。透過訪談 126 位來自美英軍方、以色列國防軍及科技公司的內部人士,並深入烏克蘭與加薩戰場,King 發現 AI 在現代戰爭中的真實角色是「全視之眼」——人類歷史上最強大的情報機器,負責處理海量數據、識別模式、生成目標座標,而非取代人類做出殺戮決定。更關鍵的是,AI 的介入帶來了出人意料的後果:不僅沒有讓戰爭加速,反而讓戰爭陷入類似一戰的僵持消耗;而私人科技公司的深度參與,更讓產業生態從傳統軍火商模式轉變為「軍事科技複合體」,權力界線變得模糊。這本書為我們理解 AI 時代的戰爭形態提供了深刻且令人不安的洞見。
講者介紹
Anthony King — Chair of War Studies, University of Warwick
Anthony King 是英國華威大學(University of Warwick)戰爭研究講座教授,曾任艾希特大學(University of Exeter)戰略與安全研究所所長。他為英國陸軍與皇家海軍陸戰隊擔任顧問超過十年,並曾在 2009-2010 年間於阿富汗坎達哈擔任英軍特別顧問。其著作《Command: The Twenty-First Century General》於 2020 年獲得英國陸軍年度文學獎。《AI, Automation, and War》是他最新的研究成果,由普林斯頓大學出版社出版,基於對 126 位軍方與科技業內部人士的深度訪談寫成。
魏志超 — YouTube 內容創作者
魏志超是 YouTube 平台上專注於書籍精讀與深度分析的內容創作者,擅長將複雜的學術著作轉化為易於理解的影片內容。本期節目為他對 Anthony King 這本關於 AI 與戰爭關係專著的全面解讀。
終結者幻覺:為何我們對 AI 戰爭的想像錯得離譜
好萊塢數十年來向我們灌輸這樣的畫面:未來戰場上,AI 將擁有自主意識,獨立判斷並消滅人類目標。從《終結者》到《魔鬼終結者》,這些影像深深烙印在公眾想像中,塑造了我們對 AI 戰爭的認知框架。
然而,Anthony King 在書中明確指出:這種「終結者式」的 AI 戰爭完全是幻覺。現實中的軍事 AI 既沒有自主意識,也沒有做出殺戮決定的權力。它的真實角色截然不同——是「全視之眼」(All-Seeing Eye),而非「終結者」。
這個發現源於 King 對戰場實際運作的深入觀察。在現代戰場上,AI 的核心功能是處理人類無法勝任的巨量數據工作。舉例而言,2017 年美軍在阿富汗的單次行動就能產生 40 TB 的數據量。如果由人工審視這些資料,即使不吃不睡不眠不休,也需要 208 天才能看完——而且這還只是全部資料的四分之一。
這正是 AI 擅長的領域:識別模式、發現異常、生成候選目標。它不是來取代人類決策者,而是來處理人類處理不來的資訊洪流。
Project Maven:美軍首個大規模 AI 軍事計畫的啟示
理解 AI 在戰場上的角色,Project Maven 是最關鍵的案例之一。這是美國國防部首個大規模 AI 軍事計畫,成立於 2017 年,旨在利用機器學習技術分析無人機拍攝的影片,自動識別人員和車輛。
計畫在短短 8 個月內就交付使用,部署於對抗 ISIS 的戰場上,能夠區分 38 種不同類型的目標。然而,真正的考驗在部署後才開始。
美國將軍 Jack Shanahan(他主導了 Project Maven)後來回顧這段經驗時,說了一句意味深長的話:他將收集情報的工作稱為「災難性成功」(catastrophic success)。這是什麼意思?
原來,AI 系統能以前所未有的速度產出大量情報,但這反而創造了新的瓶頸——人類分析師來不及處理這些資訊。更關鍵的是,演算法在實驗室環境中表現優異,但到了真實戰場卻問題連連:敵人會主動偽裝、改變戰術、欺騙偵測系統。
結果是,Project Maven 必須不斷調整。King 在書中透露,在戰鬥最激烈的時期,團隊在 8 天內推送了 6 次更新——這是傳統武器系統無法想像的迭代速度。這揭示了一個重要事實:軍事 AI 不是「一勞永逸」的解決方案,而是需要持續演進、與敵人鬥智的動態系統。
AI 作戰效率的驚人數據:以色列 Gospel 與 Lavender 系統
如果說 Project Maven 還處於初步階段,那麼以色列的 AI 系統則展示了這項技術的潛力極限。
Gospel 系統是以色列國防軍用於生成打擊目標的 AI 系統。在 2021 年的「守牆之盾」(Operation Guardian of the Walls)行動中,Gospel 展現了驚人的效率:過去一年只能產生 50 到 100 個目標,但系統上線後,單日就能生成 100 個目標。效率提升超過 30,000%。
Lavender 系統則專門用於追蹤個人,識別潛在的武裝人員。在 2023 年的加薩行動中,Lavender 識別了高達 37,000 名哈瑪斯武裝人員。
這些數據揭示了一個殘酷的事實:AI 極大地加速了「目標發現」的過程,但人類審核的速度遠遠跟不上。在戰爭前 35 天,烏克蘭戰場上的目標審核時間僅有區區 20 秒——這意味著人類決策者幾乎只能機械地批准 AI 提出的建議,無法進行實質審查。
英國軍方使用的 Microworld AI 規劃系統也呈現類似的效率躍升:資訊處理量增加 81%,分析品質提升 91%,而傳統方式需要 3 到 4 小時的分析工作,AI 只需數分鐘完成。
這些案例清楚表明:AI 的價值不在於「替代人類」,而在於「放大人類能力」。它讓人類能夠處理過去無法處理的資訊量,但最終的道德責任仍必須由人類承擔。
Gerasimov 暗殺事件:AI 充當「超級情報軍官」
最能說明 AI「全視之眼」角色的案例,或許是 2022 年 5 月 1 日發生的俄羅斯參謀長 Gerasimov 暗殺未遂事件。
當時,俄羅斯參謀總長瓦列里·季莫費耶維奇·格拉西莫夫(Valery Gerasimov)秘密巡視烏克蘭前線的一個村莊。這是一次高度保密的行動,按理說應該極難被發現。
然而,AI 系統整合了多個情報來源:開源情報(社群媒體、公開新聞)、通訊監聽(截獲的電話和訊息)、以及商業衛星圖像。透過模式識別和交叉比對,AI 精準定位了 Gerasimov 的指揮所座標。
烏克蘭軍隊隨即發動精準打擊,造成俄方重大傷亡,格拉西莫夫本人也負傷。這不是因為 AI 做出了「消滅敵人」的決定——而是 AI 扮演了「超級情報軍官」的角色,完成了人類情報官不可能完成的任務:從海量雜訊中提取有價值的戰略情報。
這個案例驗證了 King 的核心論點:AI 不是戰場上的殺手,而是幕後的情報怪物。它看不見、摸不著,但它的眼睛無處不在。
軍事科技複合體的興起:Palantir 的崛起
AI 改變戰爭的方式不僅體現在戰場上,更深刻地重塑了軍事組織與科技公司之間的關係。
傳統的軍火商模式是純粹的交易關係:軍方購買武器,軍火商交付產品,雙方在交易完成後各不相干。然而,Military-Tech Complex(軍事科技複合體)的興起徹底改變了這一切。
Palantir 是這場變革的代表。這家由 Peter Thiel 創辦的數據分析公司,最初從 PayPal 的反欺詐系統 Igor 發展而來。Thiel 從 Igor 學到的核心教訓是:電腦是人類的「補充」(complement),不是「替代」(replacement)。演算法負責標記可疑項目,人類做出最終決定。
這套哲學直接延伸到了 Palantir 的軍事業務。2019 年,Palantir贏得了美國陸軍價值 8 億美元的大合約。但更關鍵的是合作的深度:Palantir 的工程師不是將軟體交付後就走人,而是直接進駐作戰指揮中心,與軍人並肩工作。
例如,Palantir 派駐工程師到美軍第 18 空降軍團(18th Airborne Corps),協助整合來自衛星、無人機、地面感測器的各種數據。這種「駐紮式」的合作模式,意味著科技公司的工程師實際上成為了軍事決策過程的一部分。
King 在書中引用了一個生動的描述:這些工程師不是「在旁邊提供技術支援」,而是「成為了作戰團隊的一員」。這帶來了前所未有的效率,但也引發了深刻的權力問題。
意外後果一:AI 讓戰爭變慢了
AI 應該讓戰爭變得更快、更有效率——這是多數人的直覺。然而,King 提出了另一個令人意外的觀點:AI 實際上讓戰爭變慢了。
烏克蘭戰場是這個現象的最佳例證。2022 年 8 月至 2023 年 5 月的巴赫穆特(Bakhmut)戰役持續了 8 個月,雙方陷入了漫長的僵持戰——這種消耗戰模式上一次出現在歷史上,是第一次世界大戰。
為什麼會這樣?
原因在於「精確打擊能力」與「機動力」之間的動態關係。當雙方都擁有強大的 AI 輔助偵查和精準打擊能力時,任何大規模的兵力移動都會被迅速發現並遭到攻擊。這產生了一個詭異的結果:部隊不敢移動,只能固守在已經加固的陣地中。
AI 讓「看見」變得極度容易,但「移動」變得極度危險。戰場陷入了一種「誰移動誰倒楣」的僵局。雙方都能精確打擊對方的任何目標,但也都無法發動決定性的突破。
這與一次世界大戰的壕溝戰有驚人的相似之處:機關槍和鐵路運輸的結合,同樣造成了「誰進攻誰死亡」的僵局,導致戰爭拖入漫長的消耗。
King 的洞見在於:AI 不是讓戰爭「升級」或「加速」,而是改變了戰爭的「形態」。它可能讓戰爭變得更加殘酷、更加漫長,而非更快結束。
意外後後果二:私人公司獲得戰略影響力
AI 帶來的第二個意外後果,是私人科技公司在戰略層面上獲得了前所未有的影響力。
Starlink 克里米亞爭議是這個問題的最佳說明。2022 年 9 月,烏克蘭計畫使用武裝無人水面艇(USV)攻擊俄羅斯在克里米亞的艦隊。這是一個經過詳細規劃的軍事行動。
然而,在行動前夕,SpaceX 執行長 Elon Musk 決定切斷克里米亞方向的 Starlink 服務,導致烏克蘭的攻擊計畫失敗。
請注意:這不是技術故障,而是私人企業老闆決定否決一個盟國的軍事行動。
這個事件暴露了 Military-Tech Complex 的核心問題:當關鍵的軍事能力掌握在私人公司手中,這些公司實際上就獲得了戰略決策的「否決權」。美國空軍部長 Frank Kendall 曾對此提出公開批評:商業系統在戰時的可用性是一個嚴重的漏洞。
King 指出,我們需要問的正確問題不是「AI 是否會取代人類」,而是「誰有權使用 AI?誰能關閉它?」
當 Palantir 的工程師在作戰指揮中心與軍人並肩工作時,他們不僅提供技術支持,更參與了情報分析和目標選擇的過程。當 Starlink 的服務可以因為老闆的個人決定而被切斷時,一個私人企業主實際上擁有了干預國家軍事行動的能力。
這些問題在傳統的軍火商模式下不會出現——因為軍火商交付產品後就與戰爭無關。但在 Military-Tech Complex 時代,科技公司與戰爭的關係是持續性的、嵌入式的,這帶來了全新的治理挑戰。
為何 AI 無法成為決策者
既然 AI 如此強大,為何它無法取代人類做出軍事決策?
第一個原因是訓練數據與真實環境的差距。戰場是瞬息萬變的動態環境,敵人會主動欺騙、偽裝、誤導 AI 系統。Project Maven 的經驗表明,演算法在實驗室中表現良好,但在面對有「對手」——一個會學習、會適應、會欺騙的人類敵人時,表現會大幅下降。
第二個原因是軍事決策的複雜度遠超數據處理。軍事決策不僅是「找到目標並消滅」這麼簡單。一個完整的決策過程需要:
- 理解政治目標:這場戰爭要達成什麼?哪些目標優先?
- 協調盟友:如何與不同國家、不同軍事單位配合?
- 判斷敵人意圖:敵人在想什麼?他們的下一步是什麼?
- 權衡道德代價:攻擊這個目標會造成多少平民傷亡?政治後果是什麼?
這些都是 AI 無法處理的「軟性問題」。它需要對人類社會、文化、政治的深度理解,需要在不完全資訊下做出判斷,需要承擔道德責任。
正如 King 所強調的:AI 是人類的「補充」,而非「替代」。它的角色是增強人類的能力,而非接管人類的責任。
結論:AI 時代的戰爭形態與治理挑戰
Anthony King 的《AI、自動化與戰爭》為我們描繪了一幅既令人興奮又令人不安的未來圖景。
令人興奮的一面:AI 賦予人類前所未有的情報能力。40 TB 的數據可以在數分鐘內被分析完畢,隱藏在海量資訊中的模式可以被識別,過去需要數週才能完成的情報工作現在可以在數小時內完成。這是人類認知能力的巨大擴展。
令人不安的一面:這種能力是有代價的。當 37,000 名武裝人員可以被 AI 識別,當目標可以在 20 秒內被批准時,戰爭的「門檻」實際上降低了。當 Palantir 的工程師可以影響目標選擇,當 Elon Musk 可以否決軍事行動時,權力的界線變得模糊了。
King 最重要的洞見或許是這個:我們問錯了問題。過去,我們問「AI 會不會取代人類在戰爭中的角色?」答案是否定的。但正確的問題應該是:
- 誰有權使用這些強大的 AI 工具?
- 誰能關閉它們?
- 當私人公司的商業決策影響軍事行動時,誰應該負責?
- 當 AI 讓戰爭陷入僵持時,我們應該感到欣慰還是擔憂?
這些問題沒有簡單的答案。但 Anthony King 的書至少幫助我們看到了正確的方向:在 AI 時代,戰爭不是變得更簡單了,而是變得更複雜了——只是以一種我們尚未完全理解的方式。
實用建議
對軍事機構
-
採用「人類-機器互補」模式:AI 標記候選目標,人類確認最終決定。不要嘗試讓 AI 獨立完成「發現-決策-打擊」的整個流程。
-
建立持續演算法迭代機制:如同 Project Maven 在 8 天內推送 6 次更新,軍事 AI 需要像軟體產品一樣持續演進,而非一次性的武器系統採購思維。
-
正視情報過量的新瓶頸:AI 產出的情報量可能遠超人類分析師的處理能力,需要重新設計組織流程和工作分配。
對政策制定者與科技公司
-
建立監管機制:確保商業系統在戰時的可用性,制定明確的法規界定私人公司在衝突中的角色與責任。
-
重新定義正確的問題:不是「AI 是否會取代人類」,而是「誰有權使用 AI?誰能關閉它?誰為錯誤決策負責?」
-
公開討論 Military-Tech Complex 的權力轉移問題:當關鍵軍事能力交給私人公司,等同於讓渡部分戰略決策權,這需要公眾監督和制度設計。