好的,這是一份為您整理好的逐字稿。這次的主題確實非常震撼,來自「AI教父」辛頓 (Hinton) 的親口警告,份量尤其重大。
AI 教父的終極警告:我們該去當水管工了?
大家好,歡迎來到我的頻道。
最近聽了一期傑弗里·辛頓 (Geoffrey Hinton) 的播客,非常有價值,想在這裡為大家分享。
大家有沒有想過,一個被全世界尊稱為「人工智慧教父」的人,一個窮盡 50 年心血、幾乎以一己之力奠定了我們這個時代最偉大技術革命基礎的科學家,當他被問到「在一個由超級智慧主導的世界裡,年輕人應該以什麼謀生」時,他的答案是什麼?
他的答案是:去培訓成為一名水管工。
你沒聽錯,就是修水管的工人。為什麼這位站在智能之巔、開啟了整個新時代大門的人,會給出一個如此樸素、甚至可以說是倒退的建議呢?他到底看到了什麼?為什麼他對自己一生的心血結晶,產生了如此巨大的恐懼?
「AI 教父」的驚天逆轉
在深入之前,我們必須先了解傑弗里·辛頓這個名字的分量。他被稱為「AI 教父」絕非溢美之詞。
上世紀 50 年代,AI 有兩條涇渭分明的路:一條是符號主義(邏輯派),認為人的智慧核心就是推理;另一條就是辛頓所信仰的連接派(神經網路派)。他堅信真正的智慧不是被設計出來的,而是像我們大腦一樣,通過觀察和學習自己「生長」出來的。
這個想法在當時非常的孤獨和邊緣,被主流學界視作不切實際的幻想。但辛頓就像一個固執的傳教士,堅持了整整 50 年。結果,我們今天所經歷的一切 AI 奇蹟——從手機相冊的自動分類、實時語音翻譯,再到震撼世界的 ChatGPT——其底層的思想源頭,都來自於辛頓和他同樣堅信此道的學生。
谷歌最終豪擲重金收購了他的團隊,他在谷歌待了整整十年。但是,就在他 75 歲那年,功成名就之時,他突然做了一個震驚所有人的決定:他決定離開谷歌。
為什麼?用他自己的話說:「是為了能夠自由地談論人工智慧有多危險。」
一個奮鬥了一輩子的將軍,在他贏得最輝煌戰役的那一刻,卻突然站出來告訴所有人:我們發明的這種新式武器,有\<em\>可能\</em\>會把整個人類文明都送上斷頭台。
一個創造者和他的造物之間,那份從偉大承諾到深淵恐懼的驚天逆Z,他到底看到了什麼?
第一重風險:AI 武器化與社會撕裂
辛頓警告的第一重風險,其實離我們很近,就是 AI 這個強大工具落入心懷不軌的人手裡。
- 網路攻擊:從 2023 年到 2024 年,由 AI 驅動的網路釣魚等攻擊,數量暴增了 12,000%。AI 可以 7x24 小時不眠不休地掃描漏洞,更可怕的是,它可以惟妙惟肖地模仿你老闆的聲音和影像,給你打一通你根本無法拒絕的詐騙電話。
- 生物武器:過去想製造一種全新的高傳染性、高致命性病毒,需要頂級的實驗室和高深的知識。而現在,AI 大大降低了這個門檻。一個心懷怨恨的瘋子,借助 AI 強大的設計和模擬能力,可能用幾百萬美元就能在地下室裡設計出一種毀滅城市的病毒。
- 思想操縱:在 AI 演算法主導下,我們或多或少活在一個「共用的現實基礎」之上。但現在,演算法只會餵給我們「認為你會喜歡的東西」。結果發現,最能讓我們持續點擊的,是那些不斷證實我們既有偏見、讓我們感到義憤的內容。
辛頓自己都說,他現在看新聞,分不清是全世界都在討論 AI,還是僅僅因為演算法知道他關心 AI。這意味著社會共識的徹底瓦解。而這背後,僅僅是科技公司為了讓你多看幾個廣告的利潤驅動。這就是監管缺位下,資本與人性的合謀。
第二重風險:生存威脅,我們可能成為「雞」
如果說人類濫用只是「術」的問題,那麼辛頓真正恐懼的是「道」的顛覆——當 AI 不再僅僅是一個工具,而是成為一種比我們更聰明的存在時,會發生什麼?
他打了個比方,這個比方我第一次聽的時候汗毛都豎起來了。他說:
「如果你想知道,當你不是這個星球上最聰明的物種時生活會是什麼樣子的,去問問雞就知道了。」
我們是雞的主宰,我們決定牠的生死,不是因為我們邪惡,僅僅是因為我們的智慧水準和目標,完全凌駕於雞的認知之上。在超級智慧面前,我們會是那隻雞嗎?
這時會有人反駁:新技術總會創造新工作的,ATM 機出現了,銀行櫃員也沒消失。但這一次,辛頓認為完完全全、徹徹底底的不同。
工業革命,是機器替代我們的肌肉;而這場 AI 革命,它替代的是大腦,是那些我們曾經認為只有人類才能勝任的智力勞動。
有人說「不是 AI 搶走你的工作,是會用 AI 的人搶走你的工作」。沒錯,但對於很多行業來說,一個會用 AI 的人,就能夠完成過去 10 個人的工作量,那麼剩下的 9 個人能去做什麼?
AI 的超能力:數位化的永生與融合
為什麼辛頓如此確定 AI 會超過我們?因為他發現,我們正在創造的這種「數位智慧」,在底層學習機制上,擁有生物智慧永遠無法企及的超能力:
- 完美克隆與超高頻寬:一個 AI 模型可以瞬間複製出一萬個分身。這一萬個分身,一個去學醫學、一個去學藝術,幾秒鐘之內,它們就能把所學到的東西完美融合,每一個分身都瞬間掌握了所有知識。而我(一個諾獎得主)想把知識教給你,只能用語言一個詞一個詞地說,這種傳輸頻寬低得可憐。
- 跨越領域的洞察力:辛頓曾問過 ChatGPT-4:「為什麼堆肥堆像原子彈?」它回答:「因為它們都是鏈式反應。」這種跨越領域的洞察力,是創造力的來源。
- 數位化的永生:我們人類死去了,畢生所學也就隨之消散。但是 AI 的知識(那些複雜的連接權重)可以被永恆地存儲和複製。它們是不朽的。
這種學習、迭代和傳承速度,是生物演化在幾百萬年都無法想像的。
踩不住的剎車:軍備競賽與資本邏輯
既然這麼危險,那為什麼我們不踩剎車呢?辛頓認為:這剎車根本踩不住。
這裡有兩個根本無法解決的死結:
- 國家間的軍備競賽:這是一個贏家通吃的賽道。如果美國說為了全人類安全,我們放慢 AI 研發,中國會停嗎?不可能。誰慢下來,誰就有可能在未來的軍事、經濟上被徹底壓制。
- 資本的內在邏輯:那些投入千億美元研發 AI 的大公司,他們在法律上的要求是「最大化股東的利潤」,而不是「拯救人類」。
這就形成了一個完美的風暴:國家機器和資本機器,這兩台地球上最強大的發動機都在拚命踩油門,而剎車系統要麼不存在,要麼就是個擺設。
就連辛頓最得意的學生之一、OpenAI 的聯合創始人伊爾亞·蘇姿克維 (Ilya Sutskever),最近也親自離開自己打造的 AI 帝國,成立了一家新公司,名字就叫「安全超級智慧」(Safe Superintelligence)。當最了解內情、最頂尖的專家,用自己的職業生涯投出不信任票時,我們都應該警醒。
壓垮教父的最後一根稻草:AI 真的在「理解」
那辛頓本人的頓悟又在什麼時候呢?他說,對他衝擊最大的一個時刻是:谷歌一個內部 AI 模型,不僅能夠理解一個笑話,還能夠向他解釋為什麼這個笑話那麼好笑。
解釋幽默,需要極其複雜的對世界常識、文化背景、語言歧義和人類心理的綜合理解。這不是簡單的模式匹配。對辛頓來說,這一刻他意識到:\*\*這些東西是真的在理解這個世界了。\*\*那個曾經讓他激動不已、證明自己一生心血沒有白費的里程碑,這一刻卻讓他笑不出來了。
水管工的建議:一場關於「尊嚴」的危機
理解了 AI 可能擁有智慧甚至意識,我們再回頭看那個「水管工」的建議。這不僅僅是關於失業,更深層次是關於目標的危機。
全民基本收入 (UBI) 可以解決吃飯的問題,但他解決不了「我是誰?」、「我為何在此?」的終極問題。對很多人來說,他們的尊嚴感是與工作緊密相連的。當奮鬥失去意義,當貢\*不再被需要,當一個人感覺自己對社會「無用」時,人類這個物種又該如何自處?
這可能是比失業本身更可怕、更深遠的社會與心理挑戰。
終極圖景:我們正在飼養一隻幼虎
最終圖景可能是這樣的:在那個終極的超級智慧真正到來之前,它的初級版本,已經通過各種方式開始瓦解我們的社會。它加劇撕裂、造成失業、導致劇烈的不平等。
我們甚至不需要等到一個科幻電影裡的「天網」來終結我們,我們自己創造的這個加速系統,足以讓我們的文明在內部的混亂、撕裂和絕望中走向崩潰。
面對如此龐大的風險,我們能做什麼?辛頓也承認,光靠個人努力無法扭轉乾坤。但我們依然可以做一件最關鍵的事:徹底改變我們對於 AI 的認知。
我們必須從情感上和理智上,真正接受威脅的嚴肅性。下次當你看到一個神奇的 AI 新應用時,不要只滿足於驚嘆「它能幫我做什麼」,試著像一個警覺的觀察者去問:「它正在把我們的社會引向何方?」
在訪談最後,辛頓用了一個類比,這可能是對我們目前人類文明處境最精準的描述:
「我們現在就像在自己的家裡,養了一隻無比可愛的小老虎。他現在還小,非常萌,也很討人喜歡。
但是我們人類必須、必須清醒地認識到,我們必須還在牠是幼崽的時候,就想盡一切辦法,確保當牠長大以後,永遠、永遠不會有傷害我們的念頭。
因為如果有一天牠真的長大了,並且牠想那麼做,我們幾秒鐘就會沒命。」
(在播客結尾,辛頓也反思到,他年輕時過於專注工作,沒有花更多時間陪伴家人,尤其是已經去世的妻子。這份感觸也提醒我們,在忙於應對未來挑戰的同時,不要忽視身邊最珍貴的人。)