人工智慧大騙局:一位資深科學家的當頭棒喝

人工智慧大騙局:一位資深科學家的當頭棒喝

1. 引言:喧囂的炒作與清醒的警鐘

在當今這個被人工智慧(AI)話題徹底佔據的時代,一位科學界的重量級人物正對這場狂歡發起猛烈的抨擊。他不是別人,正是 Ramón López de Mántaras——西班牙乃至全歐洲在 AI 領域的頂尖權威之一。擁有數十年深厚研究背景的他,正以一位內部人士的視角,向我們揭示一個令人不安的真相。

Mántaras 直言不諱地指出,這股席捲全球的風潮,本質上是一場被極度誇大的「大規模行銷活動」(campaña de marketing a gran escala),而大眾正在被「蒙蔽」(tomando el pelo)。他一針見血地提醒我們,無論其表現多麼驚人,AI 的核心依然不變:「這不過是軟體」(es software)。這句話不僅徹底否定了 AI 擁有任何形式的意識,更為全文設定了核心衝突——即市場的過度吹捧與冰冷科學現實之間的巨大鴻溝。

要理解這場騙局的根源,我們必須首先回到一切的起點,從一個致命的語義陷阱開始。

2. 拆解「智慧」:一個致命的語義陷阱

這場大規模混亂的核心,始於一個根本性的錯誤。在 Mántaras 看來,早在 1956 年「人工智慧」這個名稱被創造出來時,就埋下了一顆語義的定時炸彈。這個極具擬人化色彩的術語,不僅誘使我們將人類特質投射到機器上,更為後續數兆美元的市場炒作提供了最完美的行銷外衣。

Mántaras 強調,目前的 AI 在人類的意義上並非真正的「智慧」。他引用 AI 先驅 Marvin Minsky 的「手提箱詞彙」(Suitcase words)概念,來解釋這個問題的嚴重性。像「智慧」、「思考」、「學習」這類詞語,就像一個可以塞進各種不同含義的手提箱,其模糊性正是導致誤解的溫床,也是商業敘事得以乘虛而入的絕佳機會。

為了揭示其中的差異,我們可以對比兩種根本不同的語義學:

• 指稱語義學 (Semántica denotacional): 這是人類語言的基石。詞語與其在真實世界中所指代的對象之間存在著緊密的連結。當我們說「桌子」,這個詞連結的是我們關於家庭晚餐的記憶、木頭的觸感以及穩固性的概念。它是有根的。

• 分佈式語義學 (Semántica distributiva): 這則是大型語言模型(LLM)所擁有的「語義」。它完全缺乏真實世界的根基,僅僅是透過分析海量文本,計算出詞語之間的統計鄰近性。對 LLM 而言,「桌子」只是「椅子」、「木頭」和「吃飯」的統計學鄰居,一個完全沒有體驗、沒有記憶、沒有實體的符號。

Mántaras 的結論是,當前的 AI 系統由於缺乏一個「世界模型」(modelo del mundo),根本無法真正理解語言的意義。這種理解上的錯覺,同樣延伸到了它們的「推理」能力上,而一個巧妙的實驗,便足以無情地戳破這個假象。

3. 理解的幻覺:是「反芻」,而非「推理」

要揭開大型語言模型看似智能的表象,沒有比 Mántaras 所引用的技術論證更具說服力的了。一項針對西洋棋規則的反事實測試(Pruebas contrafactuales),無情地暴露了 LLM 運作機制的真相。

實驗設計堪稱精妙:

• 第一步: 在正常的西洋棋棋盤佈局下,研究人員向多個頂尖 LLM 展示合法的開局走法,模型的判斷準確率高達 90% 以上。

• 第二步: 接下來,他們對規則進行了一個極其微小的改動——僅僅將棋盤上「馬」與「象」的初始位置互換。

• 驚人結果: 在這個訓練數據庫中從未出現過的全新情境下,模型的準確率瞬間崩潰至 54%,這與隨機猜測(echar la moneda al aire)無異。

一個真正具備推理能力的系統,會在新規則下意識到「這是一種類似西洋棋但規則不同的遊戲」,並根據新規則進行判斷。LLM 的失敗,證明了它連這個最基本的抽象步驟都無法完成。它的答案並非來自於對規則的真正理解與邏輯推理,而僅僅是從其龐大的訓練數據庫中「反芻」(regurgitan)出最相似的模式。

「這對我來說是決定性的證據,證明它們在反芻,而不是在推理。」

—— Ramón López de Mántaras

這個實驗不僅揭示了技術的短板,更暴露了市場敘事與科學現實之間一道不可逾越的鴻溝。既然「智慧」如此脆弱,那麼驅動這股狂熱的,必然是比技術本身更強大的力量。

4. 誇大的經濟引擎:跟著錢走

當我們將視角從技術層面轉向社會經濟層面,這場 AI 狂熱的圖景就變得異常清晰。在 Mántaras 犀利的剖析下,Sam Altman、Elon Musk 等科技巨頭的領軍人物,都是「可疑人物」(nombres sospechosos)。

在他看來,這些人之所以不斷宣揚通用人工智慧(AGI)即將在 2026 或 2027 年到來,並大肆渲染 AI 可能帶來的「生存威脅論」,其背後有著極為現實的商業動機。像 OpenAI 這樣的公司仍在持續虧損,它們需要一個宏大甚至帶有末日色彩的敘事——一個被 Mántaras 斥為「完全錯誤」(completamente falso)的預言——來吸引維持其運營所需的「天文數字般的投資」(inversiones pero astronómicas)。

換句話說,「生存威脅論」更像是一種精心設計的「煙霧彈」(cortina de humo)。它的真正作用,是將公眾和監管機構的注意力從 AI 當下所構成的、真實且緊迫的風險上轉移開。在這些被無限誇大的末日威脅背後,正隱藏著一系列被刻意忽視的現實危險。

5. 我們忽視的真正危險:一幕便利的煙幕

當科技巨頭們將 AI 的威脅比作電力或車輪的發明時,Mántaras 坦言這讓他「毛骨悚然」(se me ponen un poco los pelos de punta)。這種誇張的類比,恰恰是為了掩蓋那些真實且迫在眉睫的威脅。這些危險並非遙遠的科幻場景,而是正在侵蝕我們社會根基的現實問題。

與那些被炒作的「末日論」形成鮮明對比的,是 Mántaras 指出的真正危險

• 權力過度集中: 這才是權力失衡的真正樣貌——不是遙遠的超級智慧,而是當下由「半打」(media docena)大型科技公司對技術方向的絕對壟斷。學術界已在這場競賽中徹底失去了主導權。

• 資訊操縱與造假: 這才是對民主的直接威脅——不是終結者,而是深度偽造(Deepfakes)與大規模假新聞的泛濫,它們正以前所未有的規模侵蝕著社會的信任基礎,並對選舉公正性構成嚴重威脅。

• 偏見與歧視: 這才是演算法的內建暴力——不是機器暴動,而是由於訓練數據本身就包含了人類社會的既有偏見,AI 不僅會複製這些偏見,更會將其固化、放大,從而加劇社會不公。

• 驚人的環境成本: 這才是對地球的實際損害——不是機器佔領,而是訓練和運行大型模型需要消耗「驚人」(brutal)的電力與水資源。在氣候變遷日益嚴峻的今天,這是一個不可忽視的代價。

Mántaras 悲觀地認為,在當前的局面下,AI 帶來的「危害」(perjuicios)可能已經超過了它所創造的「益處」(beneficios),整個天平已經向負面傾斜。

6. 結論:呼喚批判性思維與一條新路

Ramón López de Mántaras 的觀點並非全盤否定 AI 的價值,而是一場對理性的緊急呼籲。他真正希望傳達的,是希望大眾能夠保持「批判性思維」(sentido crítico),不要輕易相信媒體上那些「AI 發現了...」、「AI 掌握了...」的聳動標題,並認識到其背後的軟體本質。

事實上,他對 AI 在特定領域的應用給予了高度肯定,尤其是在醫學與生物醫藥領域。像 AlphaFold 這樣的工具在蛋白質結構預測上取得的突破,正是 AI 作為強大輔助工具發揮巨大價值的典範,這也證明了他的立場是務實而非守舊的。對於未來,Mántaras 提出了一條更為穩健的發展路徑:將 AI 技術與機器人學深度結合,賦予其一個能夠與物理世界互動的「身體」(cuerpo)。他相信,只有透過真實的物理感知,AI 才有可能真正建立起世界模型並理解因果關係。

歸根究底,Mántaras 的警示並非反對技術,而是反對一場正在掏空我們批判性思維、扭曲公共話語、並將未來託付給少數利益集團的「行銷騙局」。當代價是真實的民主、環境與社會公義時,我們沒有權利再繼續被軟體的花言巧語所蒙蔽。

資料來源:YouTube 影片: "La gran mentira de la Inteligencia Artificial 🤖 | 🎙️ Ramón L. de Mántaras - Podcast IA ", Inteligencia Artificial 頻道。

Read more

AI浪潮下的組織再造:為何「首席生產力長」將是企業的下一個關鍵角色?

AI浪潮下的組織再造:為何「首席生產力長」將是企業的下一個關鍵角色?

近期,《華爾街日報》的報導揭示了一個令人不安的趨勢:大型企業正積極利用人工智慧(AI)處理過去由白領階級執行的任務。然而,這波裁員潮背後有著雙重因素:其一是企業對AI效率的積極擁抱,其二則是對疫情期間過度招聘所進行的一次「預期中的修正」。這股浪潮不僅衝擊了資深員工,也減少了職場新人的機會,在職場中引發了普遍的焦慮感。然而,在這份對未來的擔憂之下,一場更深刻、更具結構性的組織變革正在悄然醞釀。這場變革的核心問題不再是「哪些工作會被取代?」,而是「企業該如何重塑自身,以駕馭人與機器協作的新時代?」 1. 技術革命的核心:為何是「人事部門」站上第一線? 面對 AI 驅動的顛覆性變革,企業的焦點正意外地轉向一個傳統上被視為支援性部門的單位:人力資源部。在這場轉型的核心,人資長(Chief Human Resource Officer, CHRO)的角色正從功能性管理者,演變為企業存續的關鍵策略夥伴。 BCG 的顧問 Julia Dhar 引述其同事 Rishi Varma 的一個絕佳比喻,

By Wesley Tsai
Gemini 3 的「思維簽章」不只是技術升級:關於 AI 責任與信任,你該知道的 5 個驚人真相

Gemini 3 的「思維簽章」不只是技術升級:關於 AI 責任與信任,你該知道的 5 個驚人真相

「職場上需要人類背黑鍋,所以不用擔心 AI 會取代全人類。」這句流傳已久的笑話,或許道出了人類在自動化時代殘存的某種價值。然而,隨著 Google Gemini 3 的推出,其核心的「思維 (Thinking)」機制與「思維簽章 (Thought Signature)」功能,似乎正讓這個玩笑瀕臨失效。這是否意味著人類連背黑鍋的作用都沒有了?答案遠比想像中更複雜,也更發人深省。 1. AI 正式進入「慢思考」時代 諾貝爾獎得主 Daniel Kahneman 曾提出人類心智運作的雙系統理論:「系統 1 (快思)」依賴直覺與反射,而「系統 2 (慢思)」則進行審慎的邏輯推理。過去,所有大型語言模型都像是純粹的「系統 1」生物,其核心任務就是急著預測下一個字,完全憑藉訓練數據中的模式直覺反應。這導致我們必須設計各種複雜的提示詞工程

By Wesley Tsai
深度解析 Gemini 的「思考」引擎:從 Deep Think 到思維簽章的技術與市場變革

深度解析 Gemini 的「思考」引擎:從 Deep Think 到思維簽章的技術與市場變革

1. 導論:從「黑箱」到「可釋義」,AI 思維的下一個疆界 長期以來,大型語言模型 (LLM) 因其難以捉摸的「黑箱問題」而在企業應用中面臨著根本性的信任挑戰。決策者們不禁要問:AI 的建議是源於嚴謹的推導,還是僅僅是訓練數據中的巧合?這種不確定性使得銀行、醫院、律師事務所等高度重視合規與責任的機構,在全面擁抱生成式 AI 的道路上步履維艱。 諾貝爾經濟學獎得主 Daniel Kahneman 曾提出人類思維的「系統 1 (快思)」與「系統 2 (慢思)」理論。過去的 LLM 更像是依賴「系統 1 (快思)」進行快思考,憑藉直覺和模式匹配,條件反射般地預測下一個詞彙。開發者必須透過複雜的提示詞工程,如同教導孩童般,一步步引導模型進行邏輯推理。然而,隨著

By Wesley Tsai
他們不只交付程式碼,更交付「商業」成功:解密 AI 時代最搶手的前線部署工程師 (FDE)

他們不只交付程式碼,更交付「商業」成功:解密 AI 時代最搶手的前線部署工程師 (FDE)

試想一支特種部隊,他們不待在安逸的總部,而是直接空降到客戶所在的「前線戰場」。這不僅是個比喻,這個職位名稱的字源——「前方展開 (Forward Deployed)」——正來自軍事術語,反映了其在高風險、真實環境中作戰的本質。他們不僅攜帶總部最先進的技術平台,更重要的是,他們在塵土飛揚的真實環境中,與客戶並肩作戰,利用現場情報、克服未知障礙,最終達成關鍵的商業任務。這支精銳部隊,就是前線部署工程師 (Forward-Deployed Engineer, FDE)。 FDE並非傳統的軟體工程師或顧問,他們是深入客戶第一線,將頂尖技術實作與敏銳商業策略融為一體的複合型專家。他們不只交付程式碼,更交付商業成功。本文將為您揭開FDE的神秘面紗,深入解析他們的工作模式、核心價值,以及為何在AI浪潮席捲全球的今天,他們成為了科技業最不可或缺的關鍵角色。 1. FDE到底是什麼?不只是「懂技術的顧問」 如果說傳統的技術顧問是繪製作戰地圖的參謀,那麼FDE就是親赴前線、執行任務的特種部隊指揮官。他們的核心特質在於「動手實作」而非「紙上談兵」。FDE會直接進駐客戶的辦公室、工廠,親手編寫生產級別的

By Wesley Tsai