ai 金融應用 Circuit board and AI micro processor, Artificial intelligence of digital human. 3d render

拆解迷思:AI在金融應用中,信任為何成關鍵?

商業

廣告

人工智能(AI)現已深深植根於金融機構的日常運作之中,無論是分析信貸風險、自動批核貸款、偵測詐騙,還是生成投資洞見,AI的應用層面愈趨廣泛。然而,隨著模型變得更為複雜,其運作邏輯亦變得愈來愈難以理解。許多AI系統的決策過程如「黑箱」般運作,令人不得不問:若金融專業人士和監管機構無法解釋AI系統如何作出決策,又如何能信任AI?

可解釋性(explainability)不僅是監管要求或技術細節,更是建立信任、維護道德責任及有效風險管治的核心所在。在這個日益自動化的行業中,AI的透明度已成為不可或缺的一環。

投資界憂AI缺乏可解釋性令透明度不足

CFA協會於 2024 年的全球研究顯示,AI缺乏可解釋性是全球投資專業人士在採納AI過程中面對的第二大障礙。這個憂慮絕非無的放矢,當AI模型利用複雜或另類數據(如交易紀錄或行為模式)作出信貸決策時,透明度至關重要,是確保公平及符合法規的關鍵。舉例而言,深度學習模型或會將某些數據與信用狀況掛勾,即使這些數據不明言涉及種族或性別,仍可能產生歧視性結果。

投資領域亦不能倖免。生成式 AI 和機器學習已逐步應用於高速增長的私募信貸市場,協助交易撮合者評估交易機會。但訓練數據內潛藏的偏見可能影響投資策略或導致意料之外、難以追蹤的結果,令外界憂慮與日俱增。

保險行業方面,AI利用衛星圖像或無人機畫面協助核保人評估風險,亦可透過分析大量非結構化數據偵測詐騙行為。然而在這些應用場景中,模型若無意中使用了代表種族、性別或社會經濟背景的代理變數,亦可能引致監管風險。

不同持份者對AI解釋的需求亦各有不同:監管機構重視透明度與審計追蹤;投資組合經理希望理解模型如何應對市場變化;風險管理團隊則需了解模型在壓力情景下的穩健性;而消費者亦希望知道為何貸款被拒,或定價決策的依據。

為滿足這些多樣化的需求, AI的解釋方式須更具彈性並以人為本。業界需要建立一個框架,將不同的 AI 可解釋技術配對至不同持份者,使AI管治從用戶需求出發。

兩大可解釋性類型

AI可解釋性主要分為兩類:「前置式」模型(ante-hoc models)與「後置式」技術(post-hoc tools)。

「前置式」模型在設計上本身便易於理解,例如決策樹(decision tree)或基於規則的系統(rule-based systems)。雖然這些模型在預測準確度上或略遜一籌,但在高度監管的情境下,明確的決策邏輯往往比準確性更重要,因此更受青睞。

至於「後置式」技術,則專為已訓練完成的「黑箱」模型而設。最常見的包括SHAP(Shapley Additive Explanations)與 LIME(Local Interpretable Model-agnostic Explanations)。SHAP 源自博弈論,可量化各輸入變量對特定預測的影響程度;LIME 則則是建立一個簡化的本地模型,模擬複雜模型在某一數據點附近的行為,特別適合解釋如貸款批核等個別決策。

這些工具在如高頻交易等需於毫秒間完成的場景中尤為重要。視覺化工具如熱力圖(heatmap)、部分依賴圖(partial dependence plots)及反事實解釋(例如:「若收入高 $5,000,貸款將獲批」)亦能夠提升 AI 決策的可解釋度,幫助內部團隊與監管機構理解決策過程。

即便如此,AI 解釋工具本身亦有風險。專業人士需警惕「算法信任偏誤」(algorithmic appreciation)——即對 AI 解釋過度信任,缺乏批判性思維。這種盲目信任可能導致錯誤決策、監管風險甚至道德失誤。

此外,不同事後解釋工具對同一決策可能得出不同解釋,進一步削弱標準化的可能性。加上目前並無一套全球公認的基準來評估 AI 解釋的質素,亦令業界難以判斷AI解釋是否有用、完整或公平。

建立負責任的 AI 解釋框架

要應對這些挑戰,業界可考慮以下策略:

  1. 建立標準化基準:監管機構與行業協會應合作制定可行的解釋質素評估指標。
  2. 針對不同群體提供適切解釋:透過儀表板、視覺化工具及淺白語言,向不同持份者傳遞合適資訊。
  3. 投資於即時解釋功能:尤其針對高頻、高影響力的決策系統。
  4. 人機協作,而非取代人類判斷:堅持「人為主導」(human-in-the-loop)原則,確保 AI 於金融系統中仍由人類監督與審核。

新興技術如評估式 AI(evaluative AI),可呈現多個選項的利弊分析,而不僅限於單一建議;混合式神經-符號AI(neurosymbolic AI)則結合了基於規則的邏輯與深度學習的彈性,亦為未來解釋性發展帶來可能。

在美國,相關議題已有實質進展。聯儲局、聯邦存款保險公司(FDIC)及貨幣監理署(OCC)於 2023 年聯合發表指引,重申銀行在使用 AI 與機器學習時,須遵守既有的模型風險管理原則。消費金融保護局(CFPB)亦警告放貸機構,即使決策來自複雜 AI 系統,亦必須提供「具體且準確」的拒貸原因。證券交易委員會(SEC)則關注券商在使用預測分析工具時,可能出現的利益衝突。這些監管動向提醒我們AI 可解釋性已非可有可無,而是金融市場的合規必需品。

隨著亞太地區積極加快在金融領域應用AI,可解釋性標準對於確保公平性、促進跨市場互信及保障消費者權益至關重要。建立清晰透明的AI系統,不僅是監管要求,更是推動多元共融增長的核心要素。若業界無法解釋這些系統如何運作,甚或理解錯誤,社會或會失去對這些為提升金融決策效率而設的技術的信心。這既是一個警號,也是金融界需要緊抓的機遇。

撰文:CFA協會高級研究員Cheryll-Ann Wilson博士