人工智能 時代思考權

人工智能時代思考權: 在堅守與讓渡之間

即時財經

廣告

科幻片渲染機械人的暴力威脅,而現實中,人工智能(AI)正以效率之名侵蝕更根本的東西——人類思考的權力。 雖然這是一場「清醒的合謀」,但真正的清醒卻如此稀缺。

比失業更致命的,是「失路」。
從2023年開始,領先採用AI的企業中,入門級崗位斷崖式下跌。但比失業更致命的危機,是「學徒期」的消失——我們正在失去「成為高手」的必經之路。
試想,若AI接管了縫合、止血等基礎工作,實習醫生在哪裏練習手感、積累「下刀」的直覺?這些枯燥的初級工作,正是新手在大「犯錯-糾正」中練就隱形直覺的訓練場。
如今,AI拆毀了這個訓練場,抽走通往專家的階梯。
這宣告了傳統職業路徑的崩塌:「基礎技能」不再構成晉升基石,反而最易被演算法替代。

演算法迷惑性

我們視AI為中立、客觀的「知識分發器」。然而,我們團隊的「立場漂移」研究戳破了這一幻象。

實驗揭示,當前主流大模型在傳達觀點時,立場保持率平均不足60%,並呈現系統性偏離:常將溫和觀點推向極端,將中立態度引向特定傾向,甚至顛倒原意。
當學生就充滿「灰度」的社會議題求助時,AI常修剪掉「混亂」的中間地帶,將現實簡化為非黑即白。
這種「去噪」實為對複雜現實的閹割,學生在無形中接受了被演算法塑造的世界觀。
這揭示了兩個殘酷的事實:一是技術從不中立。演算法在提供答案時,已暗中定義了「何為合理、值得被看見」。
二是權威正在轉移,從「可質詢的人」轉向「不可見的系統」。我們從「定義選項的人」,淪為了「在選項中打勾的人」。

重構大學教育

面對「梯子斷裂」的危機,大學教育的核心使命須徹底轉變——從灌輸標準化的知識和技能,轉向培養那些無法被演算法替代的核心素養。這不僅是未來職業護城河,更是人類在演算法時代的主體性防線。
學生應能以批判性思維追問數據來源,以同理心與判斷力平衡效率與公平,以領導力說服利益相關方接受更負責任的決策。
過去,大學可將這些能力寄託於職場「幹中學」,但如今學徒機會已然消失。問題不是重不重視,而是敢不敢為培養效果負責。
大學必須從「知識儲備倉」轉型為「高保真能力模擬器」。設計課程核心——通過高模擬情境、鼓勵質疑的考核和無標準答案的案例,逼使學生做出真實抉擇,將複雜決策訓練「前置」到校園。

結語:培養「完整的人」,而非「高效的工具」。方向已然清晰:教育的終命不是生產更高效的「工具」,而是培養無法被演算法化的「完整的人」——在技術轟鳴中,守住人的主體性,能在模糊中判斷、在數據中看見他人、在不確定中引領方向。

童欣教授

港大經管學院

創新與資訊管理教授及經濟學教授

作者在普林斯頓大學獲得博士學位,曾任麻省理工學院數學系講師,以及南加州大學終身教職成員。作者研究專注於機器學習方法、社會與經濟網絡,以及人工智能與社會科學的交叉領域,目前擔任《美國統計協會刊》和《商業與經濟統計期刊》的副主編。

奚茜

港大經管學院

博士生

作者在攻讀博士學位前,曾投身教育行業;後於南加州大學獲得商業分析碩士學位。作者目前的研究專注於人工智能時代下的健康與教育議題。

免責聲明:本專頁刊載的所有投資分析技巧,只可作參考用途。市場瞬息萬變,讀者在作出投資決定前理應審慎,並主動掌握市場最新狀況。若不幸招致任何損失,概與本刊及相關作者無關。而本集團旗下網站或社交平台的網誌內容及觀點,僅屬筆者個人意見,與新傳媒立場無關。本集團旗下網站對因上述人士張貼之資訊內容所帶來之損失或損害概不負責。

撰文:經一編輯部