平扁的世界

從職場到哲學
在科幻小說《三體》中,有一個經典概念叫「降維打擊」—— —個高維度文明可以瞬間摧毀低維度的存在,無聲無息、無法防禦。這次主角不是外星人,而是 AI。從會下圍棋的 AlphaGo,到會寫詩、畫畫、編曲、寫論文的生成式 AI,我覺得幾乎可以確定:我們不再是這個世界中最聰明的生物了。
比爾·蓋茲(Bill Gates)近期在接受訪談時表示,人工智慧(AI)在未來十年內將顯著取代醫療和教育領域的專業人士。他指出:「目前,優秀的醫生或教師仍屬於稀缺資源,但隨著 AI 的發展,這些專業知識將變得免費且普及。」
誰能預測未來?
人類歷史的核心,其實一直圍繞著這兩個問題:誰更聰明?誰能預測未來?
從到古希臘的神諭祭司,從戰國的鬼谷子,到近代的愛因斯坦,我們總是崇拜那些能看透未來的人。因為「預測未來」就等於掌握命運,而「更聰明」往往意味著支配權。
過去的世界,是一個金字塔型的智慧社會。如果你想掌握未來,你必須努力讓自己站到頂尖的至少 10%。你得考進好大學、苦讀無數夜晚,獲得專業知識與認證,然後才可能進入某些菁英圈層。那些人,說話的方式、思考的邏輯、對未來的判斷,都與 90% 的人不同。你可以從一個人身上,看出他「是不是某個圈子裡的人」。
這是我們長久以來相信的社會階層模型:你必須夠聰明,才能觸碰未來。
這個邏輯正在被打破。當 AI 開始主導數據分析、投資決策、醫療判斷,甚至人生建議,智慧的重心正在悄悄移動。智慧不再是少數人的特權,不再來自多年的苦讀或專業訓練,而是透過 API、模型、演算法與 prompt,被「平攤」出去的力量。
你不再需要懂財報,就能預測股市走勢。你不再需要學寫程式,就能打造一個網站或機器人。甚至你不需要經過專業訓練,就可以透過 AI 做出一份簡報、一張專輯封面、甚至一份論文架構。這世界的起跑線會被壓平到非常平均,一個「平扁的世界」。
在這個世界裡,人人都可以接觸智慧,而高智慧本身,也開始失去傳統的稀缺價值與階級意義。所以,這篇文章我們想討論幾個思考問題。
當努力不再等於成果
我有個朋友的公司,最近裁掉了兩位資深的某某專員。不是因為他們能力不好,也不是績效不佳,而是因為 AI 工具已經能夠產出一樣的內容,甚至更快、更便宜。
主管只說了一句話:「我們不能再用人的邏輯經營公司了。」
這句話聽來冰冷,卻揭露了當代企業的真實心聲——效率是唯一標準,而不是人。
這讓我們不得不重新思考:如果努力不再等於成果,還需要「勞動倫理」嗎?
在工業時代,勤勞就是價值。清晨四點起床、流汗流血換得一日工資,這樣的付出與回報之間存在一種「可見的公平」。到了知識時代,腦力與創造力變成核心,誰擁有更多知識與技能,誰就能換得更多報酬與地位。那時,我們仍相信:透過學習與努力,就能跨越階級,追上未來。但如今,在 AI 的時代,即使你聰明、努力、有創意,也可能輸給一套訓練良好的模型,或者一個懂得下 prompt 的大學畢業生。
努力,不再是價值的保證書。時間,也不再是成果的等價交換。
這種變化並不只是「效率提升」那麼簡單,它正在鬆動整個社會對「價值」的基本共識。如果我們過去這樣定義價值:
他的努力,他的工作時間,他的產出能力,他的專業技能或他的服務。
但如果未來的社會只需要一個操作平台的使用者,便能瞬間生成數十份簡報、企劃、廣告腳本,那麼,我們還如何去衡量「一個人的勞動力」?這是一個真正沉重的問題,因為我們對自身存在意義的認知,很大程度建立在「我有貢獻,我有用處」這種假設上。未來也許不再需要 10 萬個專業人士,而只需要一套非常會整理知識的模型。不再需要每個人都努力工作,而是只需要更好地「選用工具和流程」。
這樣的社會,會不會更有效率?會。但人的價值該怎麼重新定義呢?
也許,有一天我們必須徹底改變對「工作」的理解。不是以「產出多少」來定義一個人的價值,而是以「這個人如何使用時間」來重新設計價值的評價方式。
也許我們將迎來一種新的倫理,不再是「勞動倫理」,而是「存在倫理」?不是看一個人能生產什麼,而是看他能活出什麼。這樣的轉變應該會是一場人類文明層級的自我重建。
如果有個從不犯錯的 AI ?
秦始皇一統六國後,曾問李斯:「如何讓天下長治久安?」
李斯的回答是:「書同文,車同軌,令出一口。」這句話,其實就是最早的中央集權治理邏輯:讓所有人說一樣的語言,遵循一樣的規則,聽從同一個命令。
這種制度的優點很明顯:一致、快速、高效——而這,正好就是今天 AI 最擅長的事。想像一下,一個 AI 系統能即時掌握每一位公民的健康數據、消費行為、行為軌跡,它能預測犯罪、控制交通、即時分配醫療資源、甚至依據你過去的選擇做出最佳政策建議。它不會貪污,不會累,也不會任性地改變規則。
那麼,我們會自願交出選擇權給一個從不犯錯的 AI 嗎?
我們每天搭 Uber,系統根據價格與位置為你自動配車;
你看 Netflix,它根據你的觀影習慣自動推薦影片;
你滑 Facebook,它選擇你會「想看到的」內容,餵給你。
這些不是你自己「選」的,是演算法根據你的數據「幫你選」的。你以為你自由選擇,其實只是接受最不痛苦的那個預測。這樣的生活方式久了,會產生一種習慣性。太多選擇變成一種負擔,很可能就會主動放棄自由,轉而選擇效率。這不是奪權,而是你甘願交出決定權。因為它真的比較快、比較準、比較不會出錯。
哲學家漢娜.鄂蘭(Hannah Arendt)曾在《極權主義的起源》中指出:極權最深層的危機,不是來自統治者的暴力,而是來自人民內心的空虛。
當人們不再願意承擔自由的重量,當人們厭倦了做選擇的痛苦,一個「永不出錯的系統」自然就會變成最令人安心的依靠。而 AI,正是這樣的系統:它溫柔地、效率地,把選擇慢慢從我們手中接走,讓我們不必承擔後果,只要享受預設好的結果。
如果是這樣的話,極權從來不需要強迫——只需要比自由還要「方便」。而我們人類,會不會在不知不覺中,把未來交給演算法,然後失去自己呢?
如果不用工作賺錢?
或許,這一切不全然是壞事。如果我們願意承認:AI 並不是來取代我們的,而是來解放我們的——那麼,我們所處的,也許不是終點,而是一個全新的開始。
這是人類文明第一次,有可能把「生存的壓力」,不段要去提供價值這件事給外包出去,讓機器去面對繁瑣的計算、重複的溝通、無窮的資訊整理。設想一個未來社會:你不需要再為了工作而工作,AI 幫你賺錢、處理帳務、甚至管理生活。你有時間與朋友深談、有機會陪伴父母、有餘裕創作沒有產值的詩。你甚至可以建立自己的哲學體系,閱讀你從沒時間打開的書,去看更多、想更多、愛得更深。
這樣的願景是迷人的,很像極了古希臘哲人柏拉圖筆下的「自由公民」—不再被勞動與物質捆綁,而能專注於追求真理、智慧與心靈的提升。
你不用自己選擇旅遊行程,AI 幫你安排好最適合你的景點。
你不用自己挑選戀人,AI 根據你的歷史與基因匹配出完美對象。
你甚至不用思考今天該做什麼,AI 告訴你怎樣安排才能最健康、最開心、最高效。
一切都更「準確」。你做的每一個選擇,都是「經過計算的最佳解」。
到最後,我們可能變成了一種「被優化過的存在」—看起來快樂、高效、整齊,但內裡空洞,因為我們已經喪失了選擇錯誤的權利。或許,真正的挑戰不在於「AI 能不能做得更好」,而在於:當我們什麼都不用做的時候,我們還會想成為誰?
文明不會等待誰,AI 也不會問你「準備好了沒」,但我認為已經可以問問自己—如果不用工作賺錢,你想怎樣活著?
活出例外的勇氣
或許,我們即將邁入一個不再需要努力的時代,知識被壓縮成算力和演算法,抉擇被包裝成預設值,連「意義」這種終極問題,也能被 AI 用數據輕鬆回答。
但也許,我們該學著把焦點放回「不確定」這件事上。正是那些無法被計算的時刻,才讓我們活得像人。我們的選擇、情緒、懷疑、悔恨、掙扎——這些看似低效的東西,也才是人類文明的靈魂,才是自由的根基,才是無法被 AI 取代的事。
如同電影《秘密會議》中那句令人動容的台詞所說:
“Our faith is a living thing, precisely because it walks hand in hand with doubt.”
「信仰正是因伴隨著懷疑而具生命力。」
“If there was only certainty and no doubt, there would be no mystery — and therefore no need for faith.”
「如果內心確信不疑,就沒有奧秘,也就不需要信仰。」

所以,如果我們真要祈禱一件事,那就讓我們祈禱:未來的社會,仍會選擇一位懂得懷疑的領導者,或者是每個人;更重要的,是我們自己——仍保有懷疑的勇氣。因為是不是只有這樣,在這個被被壓扁的世界裡,才有機會活出一種真正立體的人生?