在人工智能時代建立信任 亞洲金融市場實務藍圖︳專欄
在投資價值鏈中,AI正迅速擴展分析的廣度、深度與速度。大型語言模型(LLMs)能總結研究報告、分類文件、提取關鍵資訊及回應查詢,直接支援基本面分析、風險管理及合規監測等團隊。
CFA協會近期的研究指出,自然語言處理(NLP)已成為金融分析的基礎技術。LLMs提供靈活、多用途的解決方案,並可無縫整合至投資流程中。
機遇已至且已在眼前
AI的影響亦可量化。在面向市場的應用方面,機器學習系統可以融合多種演算法與特徵組合,提升市場波動預測的準確性,協助投資者作出更準確的風險調整與倉位配置。
不少金融機構亦利用AI簡化監管申報流程,例如從內部系統提取數據、針對法規改動而對內部政策作出調整,並令操作程序的更新自動化。
隨着AI技術規模日益擴大,透明度與問責性已不可或缺。可解釋性是負責任AI應用的核心基石。
管治為先不可後置
金融從業員必須能夠清楚說明模型如何得出結果、所使用的數據來源及其限制。可解釋AI(XAI)工具可以協助從業員理解模型結果、診斷偏差,並向客戶及監管機構清晰交代AI在決策過程中的角色。
從專業倫理層面,透明度是一項基本原則。因此,定期審核、清晰記錄模型方法理論與數據來源,以及持續與持份者溝通,皆為建立與維持信任的關鍵。在這個高利害的環境下,人類在AI決策流程中的監督角色仍必不可少。
優質的AI應用,關鍵在於完善的制度流程,而不僅是技術程式碼。AI管治應融入企業風險管理框架,涵蓋明確的責任定義、模型清單、變更控制及效能監察等機制。
這種負責任文化,須從數據管治開始,包括數據驗證、私隱保障,以及確保數據從來源至決策過程之間的全程可追溯性。
金融機構應定期測試模型的風格漂移(style drift),在涉及重大投資或客戶影響的情況下保留人類參與決策的角色——即所謂人環系統。
AI建議要持審慎態度及批評性思維,而不是盲目接受。
要加强管治,建議以下實務做法:如增強模型的可解釋性; 定期進行內部與外部審核; 確保訓練數據多樣化以減少偏見; 保障網絡安全與資料私隱放在第一位,以及在關鍵決策中保持人類的監督及參與。
此外,積極參與監管討論及跨界別專業培訓,有助縮減科技發展與監管預期之間的落差。
法規框架與跨境挑戰
對於經營跨境業務的亞洲機構而言,法規差異構成一大挑戰。目前,歐盟的AI法案採用風險導向原則;美國則偏向強調風險管理,而英國則依據行業特性進行監管。這些差異均對持有國際業務的機構帶來合規壓力。
除了金融機構,各地對AI供應商的法規要求也不一。若金融機構使用外購模型與數據,也須加強對第三方供應商的盡職審查。
幸而,亞太區的金融機構不需從零開始。國際組織如電機電子工程師學會(IEEE)、歐盟與經濟合作暨發展組織(OECD)等所提出的框架,已就核心原則達成共識,包括透明度、公平性與問責原則。
制定與這些標準一致的內部政策,有助機構在本地法規演變及跨境合規要求日益嚴謹的情況下,更有效地展示其合規能力。
將原則轉為實務流程
透過以下的清單,董事局及企業領導層可將以上原則轉為可持續執行的實務流程。
(一)從客戶與應用場景出發:明確定義問題、可接受的誤差範圍。
(二)人類監督介入點,再選擇技術方案。
(三)數據管治:偏見往往源自樣本選取。應梳理資料來源、取得授權、確保數據健全並持續測試其代表性與穩定性。
(四)模型設計須具可解釋性:優先選用支援事後解釋(post-hoc interpretation)的模型與工具,並以簡明語言記錄模型用途、輸入、限制及監控機制。
(五)量化及監察效能:建立模型目錄,設立效能門檻、回測機制及異常提示。
(六)維持人類問責:在涉及受託責任的決策中保留人類審批,並抽樣審核AI建議,以確保結果公平與合適。
(七)界定第三方風險:審核供應商的數據權限、安全機制、模型管治與事故應變能力;留意監管責任或會跨境延伸。
(八)防止「AI漂洗」。
(九)以實證支持技術,並培訓前線人員誠實解釋AI功能與限制。
(十)投資於人才:推動涵蓋數據素養、模型解讀與道德判斷的培訓計劃,協助專業人員負責任地應用AI。
CFA協會在全球不斷重申:創新與誠信必須並肩而行。若能審慎運用AI,亞洲資本市場將能得到更深、更廣的發展,並提升韌性。這不會自動發生,而是必須靠行業參與者,積極構建值得信賴的AI系統及相應的人才能力,並以問責、透明與道德內建於每一個AI工作流程之中。
免責聲明:本專頁刊載的所有投資分析技巧,只可作參考用途。市場瞬息萬變,讀者在作出投資決定前理應審慎,並主動掌握市場最新狀況。若不幸招致任何損失,概與本刊及相關作者無關。而本集團旗下網站或社交平台的網誌內容及觀點,僅屬筆者個人意見,與新傳媒立場無關。本集團旗下網站對因上述人士張貼之資訊內容所帶來之損失或損害概不負責。


