「AI+教育」深層挑戰 3大隱蔽風險|封面故事
任何具顛覆性的技術皆是一把雙面刃,當AI技術深度介入課堂與學生的日常學習,首當其衝的潛在代價,在於學生的認知發展與批判性思考能力可能會被削弱。
雖然有些AI教育系統,可以提問形式來引導學生思考,惟現實的隱憂在於,學生在課餘時間有機會接觸到未經教育界專門微調的通用型生成式AI。這類大眾化工具的設計初衷,就是追求效率與「解決問題」,而非「教學」。
社交能力削弱
傳統學習過程中,學生在面對複雜難題或梳理因果關係時,能訓練大腦思考能力。然而,生成式AI能在毫秒間提供完美答案,學生極易陷入「即時滿足」的陷阱,變相將大腦核心的邏輯推演功能交給演算法。
據團結香港基金發表的《人工智能(AI)在中小學教育的應用與發展》研究報告,於去年7月至12月訪問的1,200名本地師生中,高達九成半學生及九成一教師已廣泛使用AI工具。惟有23%受訪學生坦言,若無AI協助將難以完成功課,能不靠AI而獨立完成功課的只有39%學生。另外,有71%前線教師憂慮AI會削弱學生的解難能力,63%擔心會扼殺批判性思考,其餘影響還有創意、記憶力及溝通能力。
事實上,過度依賴AI對學生人際溝通的負面影響,確實不容忽視。真實的校園互動是培養情緒智商(EQ)的關鍵;相反,AI虛擬導師永遠溫和且無條件迎合用戶。若學生長期沉浸於這種毫無社交摩擦的「完美互動」,將可能逐漸喪失解讀人類複雜情緒及身體語言的能力,形成溝通障礙。
私隱與安全隱患
數據私隱與網絡安全是引入AI時必須跨越的另一道門檻。教育科技應用程式往往需要收集龐大且微細的個人數據,如學習進度、答題習慣等,以構建準確的學習模型。這些敏感資訊一旦被不法分子截取,後果不堪設想。
雖然前文提到「本地部署」能有效隔絕外部雲端企業的數據採集,為學校築起一道對外私隱防線,但並不代表校園內部網絡就絕對安全。隨著學校開始引入具備高度自主執行能力的生成式AI代理(如OpenClaw)以協助處理行政或個人化學習,用家必須給予權限,讓AI代理能夠自主控制電腦文件夾、跨應用程式檢索資料及操作外部系統。
若內聯網系統缺乏妥善的權限設定,或遭到學生的「惡意指令輸入」,AI代理便可能會被誘騙,從而越權進行不當行為,例如讀取未經授權的考試測驗卷,甚至意外篡改學校的敏感數據。
因此,即使數據已經安全鎖在校園防火牆之內,校方在引入這類高權限的開源框架時,仍必須在內部建立嚴格的「沙盒」(Sand)防護機制,精準限制每個AI代理的讀寫權限。
演算法偏見
社會亦需正視隱藏在大型語言模型背後的演算法偏見。目前主流AI模型(如 ChatGPT、Claude)的訓練資料庫主要來自歐美互聯網,生成的內容或許帶有特定文化背景的主流價值觀。
當這些模型應用於本地教育時,若缺乏適切的本土化微調與內容審查,可能會在歷史解讀、文化認知或道德判斷上,對心智未成熟的學生產生潛移默化的引導作用。
更令人擔憂的是「數據毒藥」(Data Poisoning)的風險。若有惡意組織或個人在網上蓄意且大規模地發布海量虛假資訊、偽造歷史文獻或極端言論,演算法在自動抓取數據時或有機會信以為真,並將這些「有毒」內容整合到其資料庫中。當學生向AI查詢相關課題時,系統便會以極具權威性的口吻,輸出這些被扭曲的錯誤資訊。
這種由人為惡意操縱的演算法偏見,不僅會造成嚴重的資訊污染,更會誤導缺乏事實核查經驗的學童,構成難以察覺的教育危機。


