ai教育 多鄰國

「AI+教育」深層挑戰 3大隱蔽風險|封面故事

科技

廣告

將AI融入教育已是不可逆轉的發展方向,科技正以前所未有的速度提升教學效率,然而,在學界與商界積極推動「AI+教育」發展的同時,社會及行業也面對不容忽視的深層挑戰。從學生心智發展、資訊安全、演算法倫理以及商業模式等,當中也有隱蔽風險。在擁抱科技創新時,必須時刻堅守教育的本質與建立完善的防護機制。

任何具顛覆性的技術皆是一把雙面刃,當AI技術深度介入課堂與學生的日常學習,首當其衝的潛在代價,在於學生的認知發展與批判性思考能力可能會被削弱。

雖然有些AI教育系統,可以提問形式來引導學生思考,惟現實的隱憂在於,學生在課餘時間有機會接觸到未經教育界專門微調的通用型生成式AI。這類大眾化工具的設計初衷,就是追求效率與「解決問題」,而非「教學」。

社交能力削弱

傳統學習過程中,學生在面對複雜難題或梳理因果關係時,能訓練大腦思考能力。然而,生成式AI能在毫秒間提供完美答案,學生極易陷入「即時滿足」的陷阱,變相將大腦核心的邏輯推演功能交給演算法。

據團結香港基金發表的《人工智能(AI)在中小學教育的應用與發展》研究報告,於去年7月至12月訪問的1,200名本地師生中,高達九成半學生及九成一教師已廣泛使用AI工具。惟有23%受訪學生坦言,若無AI協助將難以完成功課,能不靠AI而獨立完成功課的只有39%學生。另外,有71%前線教師憂慮AI會削弱學生的解難能力,63%擔心會扼殺批判性思考,其餘影響還有創意、記憶力及溝通能力。

事實上,過度依賴AI對學生人際溝通的負面影響,確實不容忽視。真實的校園互動是培養情緒智商(EQ)的關鍵;相反,AI虛擬導師永遠溫和且無條件迎合用戶。若學生長期沉浸於這種毫無社交摩擦的「完美互動」,將可能逐漸喪失解讀人類複雜情緒及身體語言的能力,形成溝通障礙。

私隱與安全隱患

數據私隱與網絡安全是引入AI時必須跨越的另一道門檻。教育科技應用程式往往需要收集龐大且微細的個人數據,如學習進度、答題習慣等,以構建準確的學習模型。這些敏感資訊一旦被不法分子截取,後果不堪設想。

雖然前文提到「本地部署」能有效隔絕外部雲端企業的數據採集,為學校築起一道對外私隱防線,但並不代表校園內部網絡就絕對安全。隨著學校開始引入具備高度自主執行能力的生成式AI代理(如OpenClaw)以協助處理行政或個人化學習,用家必須給予權限,讓AI代理能夠自主控制電腦文件夾、跨應用程式檢索資料及操作外部系統。

若內聯網系統缺乏妥善的權限設定,或遭到學生的「惡意指令輸入」,AI代理便可能會被誘騙,從而越權進行不當行為,例如讀取未經授權的考試測驗卷,甚至意外篡改學校的敏感數據。

因此,即使數據已經安全鎖在校園防火牆之內,校方在引入這類高權限的開源框架時,仍必須在內部建立嚴格的「沙盒」(Sand)防護機制,精準限制每個AI代理的讀寫權限。

演算法偏見

社會亦需正視隱藏在大型語言模型背後的演算法偏見。目前主流AI模型(如 ChatGPT、Claude)的訓練資料庫主要來自歐美互聯網,生成的內容或許帶有特定文化背景的主流價值觀。

當這些模型應用於本地教育時,若缺乏適切的本土化微調與內容審查,可能會在歷史解讀、文化認知或道德判斷上,對心智未成熟的學生產生潛移默化的引導作用。

更令人擔憂的是「數據毒藥」(Data Poisoning)的風險。若有惡意組織或個人在網上蓄意且大規模地發布海量虛假資訊、偽造歷史文獻或極端言論,演算法在自動抓取數據時或有機會信以為真,並將這些「有毒」內容整合到其資料庫中。當學生向AI查詢相關課題時,系統便會以極具權威性的口吻,輸出這些被扭曲的錯誤資訊。

這種由人為惡意操縱的演算法偏見,不僅會造成嚴重的資訊污染,更會誤導缺乏事實核查經驗的學童,構成難以察覺的教育危機。

ai教育 多鄰國 (圖片來源:本刊資料室)
(圖片來源:本刊資料室)

圖片來源:本刊資料室