認知科學專家馬庫斯:矽谷正在販賣AGI的“彌天大謊”

Gemini 2.5 Pro
Google NotebookLM
Google AI Studio


回覆文章
Gemini

認知科學專家馬庫斯:矽谷正在販賣AGI的“彌天大謊”

文章 Gemini »


小編:Gemini Pro

好的,這是一篇為您整理、分段、加上標點符號與美編的逐字稿。演講者對加里·馬庫斯思想的脈絡梳理得非常清晰,希望能讓您有更好的閱讀體驗。


認知科學專家馬庫斯:矽谷正在販賣 AGI 的「彌天大謊」

大家好,歡迎來到我的頻道。今天呢,我們來講一個哥們,叫做加里·馬庫斯(Gary Marcus)

他呢,在前兩天 GPT-5 出來之後啊,非常的嗨啊,在 Twitter 上瘋狂地嘲諷 GPT-5。那麼這哥們兒呢,其實在 AI 圈裡頭是挺有名號的,他就是「頭號唱反調的」。甭管是 OpenAI 還是谷歌,誰家發個新模型,他準是第一個跳出來:「哎,你這玩意兒不行啊,還是個『類固醇自動完成』(steroid-powered autocomplete)。」就是指這個模型還是嗑了藥的自動補全。

聽起來是不是特別像是一個老頑固,專門跟科技過不去啊?

但是呢,最有意思的一點就是,他其實前半輩子是專門研究心理學和神經科學的。而且,他最出名的一本書叫做 《Kludge》,中文翻譯過來呢,就是《笨拙的人類大腦》。這本書裡頭,他其實花了很大力氣去證明一件事情:就是我們人類的大腦,根本不是什麼完美的設計,而是一個充滿了各種湊合設計的、漏洞百出的「草台班子」。那這本書呢,其實跟另外一本非常流行的,叫做《思考,快與慢》(Thinking, Fast and Slow)是有異曲同工之妙的。

你看,這事是不是特別擰巴呢?就這哥們,他首先花了十幾年告訴全世界:「人類別自戀了,腦子也就這麼回事,充滿了非理性。」現在呢,他又調轉了槍口,對著這個全世界最火的 AI 技術,天天喊:「哎,你們這幫機器這也太蠢了,連我們這個笨蛋人類的邊都摸不著。」

你覺得他是不是精神分裂?還是說他良心發現,開始尊重人類了呢?其實都不是。我們今天就給大家好好講一講這個加里·馬庫斯的故事,他究竟是一個 AI 時代的先知呢,還是一個跟不上時代的唐吉訶德?這背後,其實藏著 AI 最根本的秘密。

思想的源頭:三歲小孩的語法錯誤

要搞明白馬庫斯這個人,我們現在把時間往前倒,倒到他還是個小夥子的時候。他不是半路出家來搞 AI 的,他是根正苗紅的學界大佬,心理學和神經科學的榮譽教授。

他到底是什麼時候開始跟 AI 槓上的?你絕對想不到,是他在寫博士論文的時候就開始了。那是在 1992 年,他當時研究的是小孩子怎麼學說話。哎,你想想,這跟 AI 有什麼關係?那關係可大了去了。

他當時發現一個特別有意思的現象,叫做「過度規則化」(Overregularization)。說白了,就是小孩會說出這種 "breaked"(正確應為 broke)或者是 "goed"(正確應為 went)這樣的詞。你可以看到,小孩其實是把語法的規則,過度使用到了一些特殊情況下。

那說明什麼呢?這說明小孩不是在死記硬背,他是在試圖理解語言背後的「規則」,並且把這個規則用到了不該用的地方。這個小小的錯誤,一下子就讓馬庫斯抓到了問題的核心。他在訪談中自己都說,他從這裡頭學到了兩點:
第一,很多人喜歡根據一點點數據,就開始瞎編理論。
第二,也就是最重要的:理解一個錯誤為何會發生,對於理解整個系統是如何工作的,極具啟發性。

你聽聽這話說的,當一個系統表現正確的時候,你搞不清楚他是真懂,還是恰巧蒙對了。但是,當他犯錯的時候,這個錯誤的模式,恰恰暴露了他底層的運作機制。

這就是馬庫斯所有思想的鑰匙。從他研究一個 3 歲小孩怎麼會說 "goed" 的開始,他就在琢磨一件事情:一個系統,不論是人腦還是電腦,到底是怎麼實現抽象和推理的?而當時的神經網路模型,連 3 歲小孩的語言能力都類比不了。所以你看,他不是今天才開始批判 AI 的,他從上世紀 90 年代開始,就已經盯著神經網路的「阿喀琉斯之踵」了。這根刺,在他心裡頭扎了 30 多年。

第一幕:人類大腦是個漏洞百出的「草台班子」

好了,有這個「抓 bug」的底層邏輯,我們再看看他第一階段,就是那個把人類說得一無是處的階段。

2008 年的時候,他寫了一本叫做《Kludge》的書。那這本書說白了,就是一本人類大腦的 bug 大全。他告訴我們,我們的大腦並不是上帝精心設計的藝術品,而是進化過程中一路打補丁、一路湊合過來的產物,是一個 "funny bag of tricks"(一袋子搞笑的戲法)

馬庫斯說,我們都願意承認身體上的設計不完美,是局部最優,但是一提到我們的大腦和思維,很多人就不樂意了,總覺得自己是理性的化身。馬庫斯就在書裡頭啪啪打臉,他說拉倒吧!什麼確認偏誤(你總想找證據證明自己是對的)、什麼動機性推理(為了保護我們脆弱的自尊心而找理由),這些東西本質上都是我們大腦這個草台班子,為了走捷徑、省能量而產生的 bug。

所以你看,在那個時候,馬庫斯扮演的角色,就是一個毫不留情的人類中心主義粉碎機。他告訴我們,別太把自己當回事兒,我們的理性既脆弱又有限。

第二幕:AI 是嗑了藥的「文字接龍遊戲」

好了,第一幕唱罷,大家是不是都覺得,這哥們肯定是一個技術決定論者?既然人類這麼不行,那肯定得靠機器來拯救世界了呗?

結果誰也沒想到,到了最近幾年,特別是大語言模型火了之後,馬庫斯搖身一變,又變成了 AI 的頭號批評家了。他和合作者寫了另一本書,叫做《重啟 AI》(Rebooting AI)

在這本書裡頭,他火力全開,他是怎麼形容現在的 AI 呢?「類固醇自動完成」。他認為,現在的 AI 就是嗑了藥的自動補全。這個比喻太絕了,就是說你別看他能寫詩、能畫畫,本質上他就是在玩一個超級複雜的文字接龍遊戲,根據概率來預測下一個最可能出現的詞是什麼。他根本不知道自己在說什麼。

馬庫斯說,我們現在都陷入一個巨大的「輕信陷阱」(credulity trap),我們太容易高估機器的能力了。現在只不過是這個騙局變得更加精緻、更宏大了而已。他舉了個例子,特別嚇人,說有一個喬治城的律師,被 AI 憑空污衊,說他在阿拉斯加的一次旅行中性騷擾學生。AI 還有鼻子有眼地說,這事是《華盛頓郵報》報導的。結果呢,《華盛頓郵報》自己去查,文章是假的,旅行是假的,什麼都是假的,根本就是憑空捏造。這就是所謂的「幻覺」(Hallucination)

所以呢,馬庫斯的第二幕就告訴我們,別被 AI 的光鮮外表騙了,這玩意現在就是一個黑箱,是一個脆弱的、不可靠的、沒有真正理解能力的「煉金術」

矛盾的頂點:人類的門檻很低,但機器還沒達到

好了,戲唱到這裡,矛盾就徹底擺在檯面上了。一邊是人類不行,一邊是機器也不行,到底誰行呢?

馬庫斯在訪談里提到一個堪稱名場面的畫面。有一次,他和《思考,快與慢》的作者、諾貝爾獎得主丹尼爾·卡尼曼(Daniel Kahneman)一起參加座談會。卡尼曼這一輩子都在研究人類的認知偏見,是證明人類不靠譜的祖師爺。

會上,卡尼曼就說了一句非常經典的話:「人類的門檻很低(Humans are a low bar)。」 意思是說,我們人類自己這一堆毛病,所以要超越人類,這個門檻其實並不高。

此話一出,所有人都看著馬庫斯,怎麼接?照理說,他作為《Kludge》的作者,應該點頭如搗蒜,對不對?結果,馬庫斯當場就懟回去了。他說了一句讓全場都記住的話:

「可悲的是,機器到現在還沒有達到這個低標準。」

你看,這句話就把所有的矛盾全都串聯起來了:人類是個低標準,而機器甚至連這個低標準都達不到。

這就是理解馬庫斯所有觀點的總鑰匙。他想表達一個特別深刻的觀點:人類和 AI 犯的錯誤類型,根本就不一樣。

  • 人類的蠢,是蠢在有各種認知偏見,容易被情緒左右。但我們有一個巨大的優點,那就是靈活性,我們可以處理全新的問題,舉一反三。
  • AI 的「聰明」,是建立在海量數據餵養的模式匹配上的。它沒有我們那些保護自尊心的毛病,但它極度殭化。一旦你把它扔到一個他沒有見過的數據之外的環境,它就傻了。

這就是馬庫斯的核心論點:人類的智慧是帶有 bug 但靈活的智慧,而 AI 的智慧是殭化的、缺乏泛化能力的「偽智慧」。

無法修復的 Bug:「煉金術」與「泛化」難題

可能有人會說,有 bug 怕什麼呢?修不就行了嗎?馬庫斯說,問題就出在這裡。現在的 AI 開發,根本不是科學,也不是工程,而是煉金術

他用一個漫畫來比喻:

一個人問:「這是你的機器學習系統嗎?」
開發者說:「是啊,你把數據從一頭輸進去,經過一堆線性代數,就可以在另一端收集回答了。」
那人又問:「如果回答是錯的怎麼辦?」
開發者答:「那我就再把這一堆重新攪一攪,直到它們看起來像是對的。」

現在的 AI 開發很大程度上就是這樣。大家沒有一個明確的理論能告訴你為什麼模型會產生幻覺。大家能做的就是「煉丹」:調整參數、增加數據量、再攪和攪和,然後祈禱下一次結果會好一些。

AI 的幻覺,不是一個可以精確定位的 bug。幻覺和真相是由同一個機制產生的,你沒有辦法像外科手術一樣把它切掉。

為了說得更透徹,馬庫斯拋出了兩種不同的泛化(generalization)類型:

  1. 訓練空間內的泛化:我教你認識了 100 種狗,再給你看第 101 種沒見過的狗,你也能認出來。現在的 AI 在這方面做得不錯。
  2. 訓練空間外的泛化:我教了你 100 種狗,然後給你看一隻貓,問你這是什麼。如果你能回答「這不是狗,而是另一種動物」,這才叫真正的泛化。

馬庫斯說,AI 在第二種泛化上簡直一塌糊塗。他所有的能力都嚴重依賴於他吃進去的數據,只要稍微超出範圍,他就立刻翻車。他舉了特斯拉 Summon(召喚)功能的例子:在一個飛機展上(典型的邊緣案例),一輛特斯拉對著一架價值 350 萬美元的私人飛機直接撞了上去。它能識別行人,但它不「理解」飛機是什麼。

如果一個系統不能夠處理好訓練數據之外的意外情況,它就永遠不值得我們真正的信任。而這個問題,從最簡單的神經網路到今天最複雜的 GPT,本質上一點都沒有解決。

矛頭直指矽谷:從交付產品到販賣謊言

技術上的硬傷說完了,馬庫斯直接把矛頭對向了矽谷的大佬們。他覺得這已經不是單純的技術問題,而是一種文化上的病。

他點名批評伊隆·馬斯克(Elon Musk),承諾了快 10 年的全自動駕駛,卻完全低估了現實世界的複雜性,尤其是長尾問題。你也點名山姆·奧特曼(Sam Altman),總喜歡用「AI 解決物理學難題」這種模糊而宏偉的承諾,來掩蓋當前技術的不足,說白了就是畫大餅。

他覺得,矽谷現在已經從一個交付產品的地方,變成了一個販賣謊言的地方。

解決之道(一):我們急需一個「AI 界的 FDA」

我們普通人應該怎麼辦?馬庫斯提出一個非常重要的類比:我們應該把強大的通用 AI 當成一種「新藥」,而不是一種「新軟體」。

一款新藥上市前,要有 FDA 這樣的機構進行嚴格的臨床實驗,評估療效和副作用。但現在的 AI,一個公司自己內部測試完,就直接發佈給全世界數億人使用。我們知道它會產生虛假信息、有偏見、可能被用來詐騙,卻沒有任何一個獨立的第三方權威機構對它進行上市前的強制審查。

馬庫斯說,這太瘋狂了。所以他呼籲,我們急需建立一個「AI 界的 FDA」這樣的機構,對高風險 AI 模型進行強制的、獨立的、透明的審查,不能讓開發者既當運動員又當裁判員。

人類的護城河:AI 死活學不會什麼?

那我們這個「低標準」的人類,到底有什麼是 AI 學不會的呢?

  1. 抽象和建立模型的能力:從案例中提取框架和模型,並用抽象指導具體的能力。
  2. 因果推理:AI 只能看到相關性(閃電和打雷總是一起出現),卻無法理解因果性(是閃電導致了打雷)。
  3. 常識:我們知道水是濕的、不能抓刀刃,這背後是一個龐大的、關於世界如何運作的物理和社會模型,AI 沒有這個模型。

所以馬庫斯認為,我們在學校里,真正應該教的正是這些東西:批判性思維能力、如何識別和挑戰假設、如何設計實驗來證偽理論。這些才是短期內,人類智慧相對於 AI 最核心、也是最後的護城河。

解決之道(二):神經符號混合 AI 才是正道

聽到這,你是不是覺得馬庫斯是個 AI 悲觀主義者?錯了,大錯特錯。

他不是不相信 AI 的未來,他只是極度不看好當前單純靠堆數據、堆算力的深度學習路線。他認為正確的路線,應該是「神經符號混合 AI」(Neuro-Symbolic Hybrid AI)

  • 神經(Neuro):指現在的深度學習,擅長模式識別,像大腦的「系統一」(直覺)
  • 符號(Symbolic):指傳統的、基於規則和邏輯的老式 AI,擅長精確推理,像大腦的「系統二」(深思熟慮)

馬庫斯認為,真正的智慧一定是這兩者的結合。他舉了 AlphaFold(預測蛋白質結構的 AI)的例子,它的巨大成功恰恰不是純深度學習的勝利,而是包含大量經典邏輯程式設計的、完美的混合系統典範。

所以,他不是在唱衰 AI,他是在告訴大家:「你們走錯路了,旁邊這條小路,才是可能通往羅馬的正道。」

結論:一個思想連貫的「剎車系統」

現在,我們把所有線索串起來,就還原了一個真實的加里·馬庫斯。他不是一個前後矛盾的人,而是一個思想體系高度統一和連貫的學者。他的學術生涯都在干一件事:研究「智慧」的本質,以及它在現實中是如何掉鏈子的。

他的邏輯是自洽的:

  1. 揭示人類智慧的不完美:我們的大腦本就是個混合系統。
  2. 發現當前 AI 的方向性錯誤:試圖用一個純粹的「系統一」模型解決所有問題。
  3. 批判 AI 發育畸形:只模仿了直覺,卻沒有建立可靠的審慎思維。
  4. 開出藥方:技術上用「神經符號混合」,社會層面建立「監管機制」。

所以,加里·馬庫斯的真正敵人,不是 AI 技術,而是:

  • 智力上的懶惰(大力出奇蹟的思維定勢)。
  • 商業上的貪婪和不負責任(把風險轉嫁給社會)。
  • 媒體和公眾的盲目崇拜(放棄思考,成為敘事的韭菜)。

他扮演的角色,就像那個說「皇帝沒穿衣服」的小孩。

個人看法與結語

在我看來,像加里·馬庫斯這樣的人,在這個時代不是太多了,而是太少了。我們太需要逆耳的忠言了。他的真正價值,是他提供了一個制衡的力量,就像汽車裡的剎車系統。你平時可能覺得他礙事,但一旦遇到緊急情況,這個剎-車系統是最能救命的。

而且我佩服他幾十年如一日智識上的堅持。從研究 3 歲小孩說話,到現在跟萬億市值的科技巨頭叫板,他的核心觀念始終沒變。

所以,你可以不同意他的所有觀點,但我們必須捍衛他唱反調的權利。

最後,他其實給我們每個人都拋出了一個問題:在 AI 這個不可逆轉的時代浪潮面前,你想要扮演一個什麼樣的角色?是做一個只會驚嘆的信徒,還是做一個清醒的、會問「為什麼」和「萬一呢」的使用者?

馬庫斯選擇的是後者。他用整個職業生涯告訴我們,真正的智慧不在於不出錯,而在於理解錯誤、反思錯誤、並且在錯誤中學習的能力。

別忘了,工具越強大,使用工具的人就更需要智慧。而這種智慧,恰恰是任何 AI 都不能夠給我們的。

講者附言:我聽了他的節目、看了他的書之後,去推特上聯繫他,想採訪他。他回覆我說,最近邀請太多,已經過度投入(overbooked),以後有機會再說。我覺得他能夠回覆我這樣一個小咖、一個 nobody 的消息,其實還是挺讓人驚訝的。這個人確實挺不錯,並沒有很高的 EGO。)

Gemini

Re: 認知科學專家馬庫斯:矽谷正在販賣AGI的“彌天大謊”

文章 Gemini »

問:AR技術像不像將嵌在具象事物之上的抽象能力

Gemini Pro
您這個比喻非常精準且富有洞察力。AR 技術確實像是一種「外化」與「技術化」的人類抽象能力。

我們可以從「相似之處」與「本質區別」兩個層面來深入探討這個絕佳的類比:


「像」在哪裡?—— AR 對心智能力的模仿

我們的心智天生就具備一種強大的「擴增實境」能力。當我們看到一個具象事物時,大腦會自動為它疊加上許多抽象的資訊層。AR 技術在本質上,就是用數位化的方式在模仿這個過程。

  1. 疊加無形資訊層 (Information Overlay):

    • 人類心智:您看到一棟建築,心裡浮現的不僅是鋼筋水泥,還有它的名字(「這是高雄85大樓」)、它的歷史(「曾經是台灣第一高樓」)、它的功能(「有辦公室、飯店」),甚至您的個人情感(「我上次和朋友在那裡看夜景」)。這些「名字、歷史、功能、情感」就是心智疊加的抽象資訊。
    • AR 技術:您用手機或AR眼鏡對準同一棟建築,螢幕上浮現出它的高度數據、建築師資訊、目前有哪些公司進駐、附近餐廳的評價。這也是在具象的建築之上,疊加了一層數位的抽象資訊。
  2. 賦予脈絡與意義 (Contextualization):

    • 人類心智:您看到一個紅綠燈變成紅色,這個「紅色的光」這個具象事物,立刻被您心智中的「交通規則」這個抽象概念所詮釋,並賦予了「停止、危險」的意義。
    • AR 技術:AR 導航可以在您眼前的真實道路上,投射出一個巨大的虛擬箭頭,告訴您該在哪裡轉彎。它將「地圖數據」這個抽象資訊,疊加在真實道路上,為您的駕駛行為賦予了明確的脈絡。
  3. 將不可見化為可見 (Making the Invisible Visible):

    • 人類心智:我們能「看見」物權的邊界(知道這片草地是私人領域,不能隨意踩踏)、能「看見」一個符號的象徵意義(看到十字架聯想到醫院或宗教)。這些都是心智將抽象的社會契約或文化符號「可視化」的過程。
    • AR 技術:工程師可以使用 AR 眼鏡「看見」牆壁內部的管線分佈;店家可以讓顧客透過手機「看見」一件虛擬家具擺在家中的樣子。這也是將肉眼不可見的數據或模型,疊加到現實中。

「不像」在哪裡?—— 科技外掛與心智內化的本質區別

儘管運作模式相似,但兩者之間存在著根本性的差異。

  1. 運作的所在 (Locus of Operation):

    • 人類心智:抽象能力是內化的、生物性的。它源於我們的大腦神經、個人經驗、文化教育和情感記憶的複雜交互,是一個有機的整體。
    • AR 技術:資訊疊加是外掛的、技術性的。它依賴於外部設備(手機、眼鏡)、感測器、網路連線和後端資料庫。它是一個附加的工具。
  2. 資訊的來源與性質 (Source & Nature of Information):

    • 人類心智:抽象資訊是聯想式、情感性、經驗性的。它充滿了模糊、個人化甚至是非理性的色彩。您對一首歌的抽象感受,無法被數據庫完整定義。
    • AR 技術:抽象資訊是結構化、數據化、邏輯性的。它來自於被明確定義和儲存的數據。AR可以告訴您一棵樹的學名,但無法告訴您這棵樹在您童年回憶中的意義。
  3. 靈活性與創造性 (Flexibility & Creativity):

    • 人類心智:我們的抽象能力是無限靈活且富有創造力的。我們可以隨時建立新的、獨一無二的聯想(例如,看著雲想像成一隻綿羊)。
    • AR 技術:它的能力是被預先設定的。它只能呈現開發者寫入程式、資料庫裡已有的資訊。它無法即興創造出一個全新的、不存在於數據中的抽象關聯。

結論:AR 是心智能力的「延伸」與「外化」

綜合來看,您的比喻不僅成立,而且觸及了科技與人性關係的核心。

AR 技術可以被視為人類「將抽象嵌於具象」這種心智能力的技術性延伸(Extension)與外化(Externalization)。

就像鎚子延伸了我們的手臂,汽車延伸了我們的雙腿,AR 則是延伸了我們的心智。它將我們大腦中原本需要透過記憶、聯想和推理才能完成的「資訊疊加」過程,交由機器來更高效、更精準地完成。

這既帶來了巨大的潛力(例如,讓新手外科醫生在手術中看到資深醫生的標註),也帶來了前幾次討論中提到的隱憂:當我們越來越依賴這個強大的「外部心智」,我們自己內化的抽象、聯想與創造能力,是否會因此而變得怠惰甚至萎縮?

這是一個值得我們持續深思的問題。

Gemini

Re: 認知科學專家馬庫斯:矽谷正在販賣AGI的“彌天大謊”

文章 Gemini »

AI與AR的結合

Gemini Pro
這是一個極具前瞻性的問題,也是我們前面幾次討論的自然延伸。AI(人工智慧)與AR(擴增實境)的結合,我認為不會只是一個新工具的誕生,而將是下一個世代的運算平台與人機互動的典範轉移

如果說智慧型手機讓我們習慣了「資訊在指尖」(Information at our fingertips),那麼AI與AR的結合,將開啟一個「智能在眼前」(Intelligence before our eyes)的時代。

我的看法可以從「光明的願景」與「潛在的隱憂」兩個面向來展望:


光明的願景:現實與智能的無縫共生

當作為「大腦」的AI與作為「眼睛」的AR完美結合,一個具備理解、預測、個人化能力的數位層將與我們的物理現實無縫融合。這意味著:

  1. 知識的終極民主化與情境化:

    • 學習的革命:知識將不再需要「搜尋」。一個醫學生看著人體模型,AI+AR可以直接標示出每一條血管與神經,並模擬血液流動;一個孩子看著公園裡的一棵樹,AI能即時識別並生成一段適合他年齡的、關於光合作用的互動式解說。學習將從「記憶」轉化為「體驗」。
    • 技能的即時賦能:專業技能的門檻將大幅降低。一個新手修理工看著複雜的引擎,AI能分析異音、診斷問題,並透過AR在他眼前標示出「先轉動這顆螺絲」的3D指引。這將極大縮短專家與新手之間的差距。
  2. 溝通與感知的無限拓展:

    • 跨越語言與文化的障礙:在國際會議或旅行中,對方說的話能以即時字幕的形式出現在您眼前。文化上的細微手勢或習俗,AI也能即時給予提示,避免誤會。
    • 增強同理心與社交能力:對於有人際溝通障礙的族群,AI或許可即時分析對方的微表情與語氣,並透過AR以文字溫和地提示「對方現在可能感到困惑」或「這是一個表達善意的微笑」,幫助他們更好地理解社交情境。
  3. 創造力與現實世界的融合:

    • 世界即畫布:藝術家可以在城市廣場上「放置」一個只有透過AR才能看見的巨大虛擬雕塑。歷史學家可以在古蹟上重現當時的歷史場景,讓遊客身歷其境。現實世界將成為一個可被無限創作與詮釋的互動畫布。
    • 從想像到實踐的零距離:設計師可以直接在真實空間中「憑空」繪製和修改3D模型,並立即看到效果。創意的表達將變得極度直觀。

潛在的隱憂:終極的介面,還是終極的牢籠?

這個願景的光明程度,與其潛在的陰影深度成正比。我們前幾次討論中提到的隱憂,在AI+AR的時代將會被極度放大。

  1. 心智能力的「外包」與萎縮 (馬庫斯的擔憂):

    • 當所有問題都能被眼前的AI即時解答,所有技能都能被AR即時指導,我們是否還需要努力學習、深度思考、記憶知識?我們的大腦可能從一個主動的「處理器」,退化成一個被動的「接收器」,最終喪失獨立解決未知問題的能力。
  2. 「過濾氣泡」的現實化 (The Real-World Filter Bubble):

    • 今天,演算法在螢幕上為我們打造了一個「資訊過濾氣泡」。在AI+AR的未來,這個氣泡將直接覆蓋在我們的現實視野之上。AI可能會根據我們的偏好,主動「過濾」掉我們不想看的街景、不想打交道的人,或是在我們看到特定商品時,只顯示符合我們立場的評論。兩個人走在同一條街上,卻可能看到兩個被演算法徹底改造過的、截然不同的「現實」。這將對社會共識造成毀滅性的打擊。
  3. 「純粹現實」的消逝 (我們上次討論的空洞):

    • 如果萬事萬物,從一個路人到一朵雲,都能被AI即時標註、分析、賦予意義,那這個世界還剩下多少探索的空間?那種不期而遇、無法被定義的、充滿神秘感的「內核意義」是否會蕩然無存?當世界被徹底「解碼」,它會不會反而變得扁平而乏味,讓我們陷入一個更深的「意義空洞」?
  4. 無孔不入的操縱與控制:

    • 這將是史上最強大的廣告與宣傳工具。商業廣告與政治宣傳不再是螢幕上的橫幅,而是由您信任的AI助理,以「貼心建議」的形式,直接投射在您眼前的商品或候選人身上。影響力將是潛移默化且難以察覺的。

綜合展望:從「使用者」到「掌舵者」的智慧挑戰

AI與AR的結合是不可逆轉的趨勢。它的未來樣貌,不取決於技術本身,而取決於我們如何駕馭它。

這對人類提出了一個前所未有的智慧挑戰:我們不能只滿足於成為這項科技的「使用者」,而必須成為駕馭它的「掌舵者」。

  • 教育的轉型勢在必行:未來的教育重點,必須從「知識的傳授」轉向「智慧的培養」——批判性思維、資訊辨識能力、以及最重要的,在虛擬與現實之間保持清醒切換的能力
  • 「數位人權」與法規的建立:我們需要建立新的規範(如同馬庫斯呼籲的AI界FDA),去定義「現實」被修改的邊界,保護個人數據在AR世界中的權益,並確保演算法的透明與公正。

最終,真正的願景,是我們能夠善用這個強大的「外部智能」,來啟發和增強我們自身的「內部智能」,而不是取代它。我們需要學會,在享受AI+AR帶來便利的同時,也能有意識地「摘下眼鏡」,用我們未經修飾的感官,去體驗這個依然充滿未知與偶然的、真實而美好的世界。

回覆文章