拆解迷思:AI在金融應用中,信任為何成關鍵?
可解釋性(explainability)不僅是監管要求或技術細節,更是建立信任、維護道德責任及有效風險管治的核心所在。在這個日益自動化的行業中,AI的透明度已成為不可或缺的一環。
投資界憂AI缺乏可解釋性令透明度不足
CFA協會於 2024 年的全球研究顯示,AI缺乏可解釋性是全球投資專業人士在採納AI過程中面對的第二大障礙。這個憂慮絕非無的放矢,當AI模型利用複雜或另類數據(如交易紀錄或行為模式)作出信貸決策時,透明度至關重要,是確保公平及符合法規的關鍵。舉例而言,深度學習模型或會將某些數據與信用狀況掛勾,即使這些數據不明言涉及種族或性別,仍可能產生歧視性結果。
投資領域亦不能倖免。生成式 AI 和機器學習已逐步應用於高速增長的私募信貸市場,協助交易撮合者評估交易機會。但訓練數據內潛藏的偏見可能影響投資策略或導致意料之外、難以追蹤的結果,令外界憂慮與日俱增。
保險行業方面,AI利用衛星圖像或無人機畫面協助核保人評估風險,亦可透過分析大量非結構化數據偵測詐騙行為。然而在這些應用場景中,模型若無意中使用了代表種族、性別或社會經濟背景的代理變數,亦可能引致監管風險。
不同持份者對AI解釋的需求亦各有不同:監管機構重視透明度與審計追蹤;投資組合經理希望理解模型如何應對市場變化;風險管理團隊則需了解模型在壓力情景下的穩健性;而消費者亦希望知道為何貸款被拒,或定價決策的依據。
為滿足這些多樣化的需求, AI的解釋方式須更具彈性並以人為本。業界需要建立一個框架,將不同的 AI 可解釋技術配對至不同持份者,使AI管治從用戶需求出發。
兩大可解釋性類型
AI可解釋性主要分為兩類:「前置式」模型(ante-hoc models)與「後置式」技術(post-hoc tools)。
「前置式」模型在設計上本身便易於理解,例如決策樹(decision tree)或基於規則的系統(rule-based systems)。雖然這些模型在預測準確度上或略遜一籌,但在高度監管的情境下,明確的決策邏輯往往比準確性更重要,因此更受青睞。
至於「後置式」技術,則專為已訓練完成的「黑箱」模型而設。最常見的包括SHAP(Shapley Additive Explanations)與 LIME(Local Interpretable Model-agnostic Explanations)。SHAP 源自博弈論,可量化各輸入變量對特定預測的影響程度;LIME 則則是建立一個簡化的本地模型,模擬複雜模型在某一數據點附近的行為,特別適合解釋如貸款批核等個別決策。
這些工具在如高頻交易等需於毫秒間完成的場景中尤為重要。視覺化工具如熱力圖(heatmap)、部分依賴圖(partial dependence plots)及反事實解釋(例如:「若收入高 $5,000,貸款將獲批」)亦能夠提升 AI 決策的可解釋度,幫助內部團隊與監管機構理解決策過程。
即便如此,AI 解釋工具本身亦有風險。專業人士需警惕「算法信任偏誤」(algorithmic appreciation)——即對 AI 解釋過度信任,缺乏批判性思維。這種盲目信任可能導致錯誤決策、監管風險甚至道德失誤。
此外,不同事後解釋工具對同一決策可能得出不同解釋,進一步削弱標準化的可能性。加上目前並無一套全球公認的基準來評估 AI 解釋的質素,亦令業界難以判斷AI解釋是否有用、完整或公平。
建立負責任的 AI 解釋框架
要應對這些挑戰,業界可考慮以下策略:
- 建立標準化基準:監管機構與行業協會應合作制定可行的解釋質素評估指標。
- 針對不同群體提供適切解釋:透過儀表板、視覺化工具及淺白語言,向不同持份者傳遞合適資訊。
- 投資於即時解釋功能:尤其針對高頻、高影響力的決策系統。
- 人機協作,而非取代人類判斷:堅持「人為主導」(human-in-the-loop)原則,確保 AI 於金融系統中仍由人類監督與審核。
新興技術如評估式 AI(evaluative AI),可呈現多個選項的利弊分析,而不僅限於單一建議;混合式神經-符號AI(neurosymbolic AI)則結合了基於規則的邏輯與深度學習的彈性,亦為未來解釋性發展帶來可能。
在美國,相關議題已有實質進展。聯儲局、聯邦存款保險公司(FDIC)及貨幣監理署(OCC)於 2023 年聯合發表指引,重申銀行在使用 AI 與機器學習時,須遵守既有的模型風險管理原則。消費金融保護局(CFPB)亦警告放貸機構,即使決策來自複雜 AI 系統,亦必須提供「具體且準確」的拒貸原因。證券交易委員會(SEC)則關注券商在使用預測分析工具時,可能出現的利益衝突。這些監管動向提醒我們AI 可解釋性已非可有可無,而是金融市場的合規必需品。
隨著亞太地區積極加快在金融領域應用AI,可解釋性標準對於確保公平性、促進跨市場互信及保障消費者權益至關重要。建立清晰透明的AI系統,不僅是監管要求,更是推動多元共融增長的核心要素。若業界無法解釋這些系統如何運作,甚或理解錯誤,社會或會失去對這些為提升金融決策效率而設的技術的信心。這既是一個警號,也是金融界需要緊抓的機遇。
撰文:CFA協會高級研究員Cheryll-Ann Wilson博士


