AI 先驅吳恩達警告:泡沫確實存在,可能觸發 AI 冬天
Original Video Description
Will we get AGI in 2026? Will AI agents replace programmers? Is the open-source AI era ending — and is China already ahead? In this episode, Andrew Ng breaks down why “AGI” (Artificial General Intelligence) has become a marketing term, why the world is still decades away from real AGI, and what the real story is: AI agents, agent workflows, and practical AI adoption that changes business long before human-level intelligence arrives.
We go deep on the gap between AI benchmarks and real-world usefulness, the risk of an AI hype bubble leading to another AI winter, and why open-source / open-weight models matter if we want to avoid an AI oligopoly dominated by a few proprietary frontier model labs. We also talk about the future of work, AI job automation, and why education systems are still training people for jobs that no longer exist.
Andrew Ng is a leading AI researcher and entrepreneur, former head of Google Brain, co-founder of Coursera, and a major voice on machine learning, deep learning, and building real-world AI products.
In this episode you’ll learn: • What AGI should mean — and why redefining it fuels hype • Andrew’s new Turing-style AGI test: multi-day, economically valuable work • Why benchmarks can improve while AI feels “worse” to users • What AI agents and agentic workflows will actually deliver in 2026 • Open-source AI vs proprietary models (and why China is a key player) • Which jobs are at risk (call centers, translation, voice work) — and why most won’t vanish overnight • Why AI education needs a radical update (students trained for 2022 roles) • The real stakes: innovation freedom vs an AI oligopoly
Chapters: 00:00 AGI as a marketing term (Artificial General Intelligence) 01:00 AGI in 2026? Andrew Ng’s answer 03:33 A practical AGI test 05:05 AI benchmarks vs real-world performance 08:55 AI agents and agent workflows in 2026 23:29 AI hype bubble 30:14 Open-source, open weights, and avoiding an AI oligopoly 42:58 AI automation and jobs most exposed 46:00 China vs the US in AI 53:08 Meaning, happiness, and what AI is for
Matt Kawecki (host) on LinkedIn: https://www.linkedin.com/in/maciejkawecki Andrew NG (guest) on LinkedIn: https://www.linkedin.com/in/andrewyng/ This is The World: https://www.thisisworld.org/ This is The World on Instagram: https://www.instagram.com/thisistheworld_podcast/
Don't forget to subscribe to our channel and turn on notifications so you won't miss any of our future episodes ► https://www.youtube.com/@UCHzNtQ4KyLbfEZhiKnHHRiw
#ai #agi #technology #future #andrewng #thisistheworld
在這段深度訪談中,AI 先驅吳恩達(Andrew Ng)提出了一個引人深思的警告:AI 泡沫確實存在,過度吹捧通用人工智慧(AGI)可能導致失望與泡沫破裂,甚至觸發另一次「AI 冬天」。這位曾經創立 Google Brain、擔任百度首席科學家的史丹佛大學教授認為,AGI 已成為一個被過度使用的行銷術語,距離真正實現還有數十年之遙。他指出,許多團隊不斷降低 AGI 的定義標準來宣稱達成目標,這種做法對產業發展極為不利。吳恩達強調,真正的創新方向是「代理式 AI」(Agentic AI),即將人類執行任務的思維過程編碼到 AI 代理中,這將在未來多年持續創造實際價值。他同時批評企業為籌集資金或公關目的過度吹捧 AI,呼籲業界採取更務實的態度。
講者介紹
Andrew Ng(吳恩達) — AI 先驅、史丹佛大學兼任教授
吳恩達是當今最具影響力的 AI 研究者與創業家之一。他曾創立 Google Brain 團隊,擔任百度首席科學家,並共同創辦了線上教育平台 Coursera,至今已有超過 800 萬人修習過他的 AI 課程。目前他同時經營多家 AI 公司,包括 DeepLearning.AI、創投工作室 AI Fund、電腦視覺公司 Landing AI,以及最新成立的 AI Aspire,同時在史丹佛大學擔任兼任教授與醫學人工智慧影像中心(AIMI)成員。他也於 2024 年起加入 Amazon 董事會。
Maciej Kawecki — CEO, This Is World
Maciej Kawecki 博士是 This Is World 科學敘事工作室的創辦人暨執行長,該工作室總部位於華沙與帕羅奧圖,專注於製作與諾貝爾獎得主、科技先驅及各領域頂尖思想家的長篇深度對談。他同時擔任歐盟數位大使(Digital EU Ambassador)、華沙 WSB Merito 大學創新中心主任,以及波蘭 Lem Institute 主席。
AGI 迷思:被過度吹捧的行銷術語
AGI 定義的模糊化危機
吳恩達在訪談中直言不諱地指出,AGI(通用人工智慧)已經成為一個「行銷術語」,而非精確的技術定義。他解釋道:「AGI 是『AI 能夠完成人類能做的任何智力任務』,這個標準極高,我們離這目標還很遠。」
他觀察到一個令人擔憂的現象:許多 AI 團隊為了宣傳效果,不斷降低 AGI 的門檻來宣稱自己已經達成目標。這種做法雖然有助於籌集資金和吸引關注,但長期下來會造成公眾期望與現實之間的巨大落差。
2026 年不可能實現 AGI
針對業界一些人聲稱在 2026 年就能實現 AGI 的預測,吳恩達明確表示這是不合理的。他認為,如果用合理的定義來看,AGI 仍是數十年後的事情。他說:「AGI 被過度吹捧,可能導致失望、泡沫破裂,引發另一次『AI冬天』。」
這種警告並非空穴來風。AI 歷史上曾經有過類似的泡沫破裂經驗——上世紀七八十年代,由於過度樂觀的預期未能實現,AI 領域陷入了長達數十年的低潮期,被稱為「AI 冬天」。吳恩達擔心類似的歷史會重演。
Agentic AI:真正的創新方向
代理式 AI 的崛起
與對 AGI 的謹慎態度形成對比,吳恩達對「代理式 AI」(Agentic AI)的發展前景充滿信心。他表示:「2026 年的重點是 Agentic AI,而非 AGI。」事實上,吳恩達正是「agentic AI」這個術語的發明者,用來描述 AI 系統能夠像人類一樣規劃、執行和反思任務的現象。
代理式 AI 的核心概念是將人類執行任務的思維過程編碼到 AI 代理中。這不僅僅是簡單的指令執行,而是賦予 AI 系統規劃能力、上下文理解能力和自我反思能力。吳恩達認為,這種技術將在未來多年持續發展,並創造實際的商業價值。
實際應用案例
吳恩達的團隊已經在多個領域驗證了代理式 AI 的實用性:
- 程式碼撰寫:使用 AI 輔助程式設計師編寫和除錯程式碼
- 關稅合規檢查:自動檢查進出口文件的關稅合規性
- 法律文件分析:閱讀複雜的法律文件,協助律師進行案件準備
- 醫療協助:輔助醫療專業人員進行診斷和治療規劃
- 客戶服務:提供智慧化的客戶支援服務
這些應用展現了代理式 AI 在各行各業的潛力,也印證了吳恩達的觀點:專注於實際問題解決,比追逐遙不可及的 AGI 目標更有價值。
Scaling 的未來:方法論的轉變
Scaling 時代尚未結束
吳恩達認為,AI 的 Scaling(規模化)時代並沒有結束,但具體方法已經發生了根本性的轉變。早期的 Scaling 策略相對簡單——「更多數據、更大模型」就能帶來可觀的性能提升。然而,這種簡單粗暴的方法已經接近天花板。
現在的 Scaling 需要更複雜的配方,包括:
- 合成數據生成:利用 AI 產生高品質的訓練數據
- 強化學習:讓 AI 透過與環境互動學習更複雜的任務
- 多模態整合:結合文字、圖像、音頻等多種輸入形式
- 更精細的架構設計:優化模型結構以提高效率和能力
吳恩達承認,現在的 Scaling 確實越來越難,需要更多的技術創新和工程努力。
中國在開源模型的領先地位
訪談中另一個值得注意的觀點是中國在開源和開權重模型領域的領先地位。吳恩達指出:「許多最優秀的開源模型來自中國。」這與一般美國媒體的報導形成有趣的反差。
他進一步分析認為,在專有模型(proprietary models)方面,美國企業仍然保持領先;但在開源生態系統中,中國的開源社群已經展現出強大的創新能力。這種多元化的發展對整個 AI 領域來說是健康的,因為開放創新可以避免少數企業壟斷整個產業。
AI 泡沫的風險與警告
過度吹捧的危害
吳恩達在訪談中多次批評企業為籌集資金或公關目的過度吹捧 AI。他直言:「過度吹捧導致失望,導致泡沫破裂,對世界和 AI 領域都不好。」
這種批評反映了他對產業健康的長期關注。當企業為了獲得融資或媒體關注而做出不切實際的承諾時,一旦這些承諾無法兌現,整個產業的信譽都會受到損害。吳恩達引用 AI 歷史上的教訓指出,過度承諾而無法交付是導致之前 AI 冬天的主要原因之一。
對產業的建議
作為一位經驗豐富的 AI 領袖,吳恩達對整個產業提出了以下建議:
- 保持務實:專注於當前可以實現的技術,而不是遙遠的未來願景
- 透明溝通:對技術能力保持誠實,不要為融資而誇大
- 創造實際價值:優先開發能解決真實問題的應用
- 開放創新:支持開源和開放標準,避免技術壟斷
對個人和企業的實用建議
個人層面:擁抱 AI 工具
吳恩達對個人發展提出了明確的建議:「不會使用 AI 的程式設計師將會陷入麻煩,AI 不會取代人,但使用 AI 的人會取代不使用 AI 的人。」
這句話點出了 AI 時代職業發展的關鍵趨勢。吳恩達強調,AI 不是要完全取代人類工作,而是會承擔工作中的某些部分。他估計:「即使無法全自動化,AI 仍能承擔 30-40% 的工作任務。」這意味著掌握 AI 工具將成為職場競爭力的關鍵。
企業層面:建立代理式工作流程
對於企業,吳恩達建議專注於建立可靠的代理式工作流程(agentic workflows)。他指出:「工程細節仍重要——工具數量、提示結構、上下文工程等細節對性能影響很大。」
這意味著企業不僅需要採用 AI 技術,還需要投入資源優化 AI 系統的實施細節。成功的 AI 應用往往是細節的累積,而不是簡單地購買一個 AI 工具就能解決問題。
教育系統的改革緊迫性
吳恩達也批評了當前教育系統與產業需求的脫節:「大學課程落後於產業需求,仍在培訓 2022 年的工作,但這些工作很多已不存在。」
他指出,雇主現在找不到足夠懂 AI 的行銷人員、招募人員和財務專業人員。這種人才短缺正是教育系統滯後的直接後果。吳恩達呼籲教育機構盡快調整課程,讓學生掌握現今產業所需的 AI 技能。
AI 測試的革新:Turing AGI 測試
現有 Benchmark 的局限
吳恩達在訪談中提出了一個新的測試框架來評估 AI 能力。他批評現有的基準測試(benchmarks)存在根本性的局限:「現有基準只能測量很窄的維度,難以捕捉主觀或灰階的任務表現。」
傳統的 AI 測試往往聚焦於特定的、可以被量化的任務,例如在特定數據集上的準確率。然而,現實世界中的工作往往更加複雜和多元,難以用單一指標衡量。
Turing AGI 測試的概念
為了解決這個問題,吳恩達提出了「Turing AGI 測試」的概念:AI 能否在多天體驗中完成經濟上有價值的專業工作。
這個測試框架的核心要素包括:
- 多天體驗:不是單一的問答任務,而是需要長期規劃和執行的複雜項目
- 經濟價值:任務必須對實際經濟活動有意義,而不只是學術上的「智能」展示
- 人類法官:由人類來評估 AI 的表現,而不是依賴自動化的指標
- 完整工作流程:涵蓋從規劃到執行的完整過程
這種測試方法更能反映 AI 在現實世界中的實用價值,也更能區分真正的技術進步和表面的性能提升。
受影響的工作類型分析
高風險職業
根據吳恩達的分析,某些工作正面臨高度的自動化威脅:
| 工作類型 | 自動化程度 | 現狀 |
|---|---|---|
| 翻譯人員 | 幾乎 100% | 處於困境 |
| 配音演員 | 幾乎 100% | 處於困境 |
| 客服中心 | 快速消失中 | 高風險 |
中等風險職業
一些職業的自動化進程比預期要慢:
- 放射科醫師:AI 醫療影像診斷的發展比許多人預期的要慢,考慮到法規要求和責任問題
- 律師:部分任務可以自動化,但由於法律保護和複雜性,完全取代困難
大多數工作的未來
吳恩達強調,對於大多數工作來說,AI 不會完全取代人類,而是會承擔 30-40% 的任務。他說:「AI 會自動化小部分工作,但剩餘部分仍需人類處理。」
這種「增強人類」的模式可能是未來工作場所的主流形態,而不是簡單的「AI 取代人類」。
結論:務實的樂觀
吳恩達在訪談中展現了一種「務實的樂觀」態度。他對 AI 的長期發展保持信心,認為 AI 將繼續為人類社會創造巨大的價值。同時,他也警告業界不要過度吹捧,不要重蹈歷史上 AI 泡沫破裂的覆轍。
他的核心訊息可以總結為以下幾點:
- 降低期望:AGI 仍是數十年後的事,不應過度吹捧
- 專注當下:Agentic workflows 才是創造實際價值的方向
- 教育緊迫性:必須盡快改革教育系統,讓學生掌握 AI 工具
- 開放生態:支持開源防止少數企業壟斷
- 持續創新:Scaling 方法需要持續演進,不能固守舊有模式
對於正在 AI 領域探索的個人和企業來說,吳恩達的這些建議提供了一個難得的務實視角。在一個充滿過度樂觀預測的領域中,他的冷靜分析無疑具有重要的參考價值。