人工智能OpenClaw 對爭議解決科技啟示與警示
近期人工智能(AI)OpenClaw系統迅速引起法律界、科技界與監管機構的關注,原因並不在於它是否「更聰明」或「更高效」,而是它代表了一種性質截然不同的技術轉向。
OpenClaw是屬於代理型人工智能(agentic AI),一個不僅回應指令,甚至能在獲授權後自行規劃、執行並持續推進任務的系統。這轉變令人需要重新思考,法律科技在制度中的合理位置。
從輔助功能到替人辦事
OpenClaw與一般聊天式AI不同,它不只存在於瀏覽器或應用程式的沙盒環境,而是可被授予存取本地運算系統的權限,以完成繁複的目標。
用家可透過即時通訊平台向系統下達任務指示。系統在理解目標後,可在無人類即時介入下自行拆解流程並逐步完成任務。
某程度上,這類系統已不再只是「工具」,而更像是一名能代為行事、具備一定判斷能力的數碼助理。
正因如此,OpenClaw被視為代理型AI的重要標誌。它展示了AI從「輔助系統」邁向「自主代理」的技術可行性,也讓人首次需要面對一個問題:當AI能夠持續代表人類行動時,我們是否已準備好相應的制度與管治框架?
ODR為何特別敏感?在眾多應用場景中,爭議解決科技對代理型AI的出現尤為敏感。
從表面看,OpenClaw類系統對ODR的吸引力相當直接:它們理論上可以自動整理龐雜文件、建立案件時間線、標示爭議焦點、監察程序時限,甚至主動提醒當事人或中立第三方,協助平台處理大量重複性工作。
然而,爭議解決並非純粹的資訊處理或行政管理。無論是調解、仲裁,抑或其他替代性爭議解決方式,其核心價值從來不只在於「快」,而在於程序是否被視為公平、結果是否具可解釋性,以及責任是否清晰可追溯。
這些因素,決定了制度能否獲得當事人與社會的信任。
正因如此,任何提升自動化程度的嘗試,在 ODR領域都無可避免地觸及制度根本。
人類在迴路中是一種治理選擇
目前多數制度化的ODR平台——尤其是公共機構或專業組織支持者——都刻意採用「人類在迴路中」(human‑in‑the‑loop)設計理念。
在這種模式下,AI被明確定為輔助的角色,包括排程、翻譯、文件管理、初步分類或分析,而實質的程序引導、價值判斷與裁決,則仍由人類擔當。
雖被外界誤解為保守,甚至是對科技的不信任。但代理型AI的出現,反而更清楚地說明,這其實是一項深思熟慮的制度選擇。
一旦AI被允許自主行動,隨之而來的問題便是問責。若系統錯誤分類證據、忽略關鍵時限,或在未被察覺的情況下影響程序走向,責任應由誰承擔?
在爭議解決場景中,問責不清不只是風險,而是對制度正當性的直接侵蝕。這亦正是為何「人類在迴路中」在法律領域,始終具備不可替代的制度價值。
另一個不容忽視的層面,是證據處理與保密要求。ODR平台往往涉及大量敏感商業資料、個人資料,以及受法律保護的機密或特權通訊。
相比傳統軟件,具廣泛系統權限的代理型 AI,一旦設定不當、出現漏洞或遭到濫用,其風險範圍將顯著放大。
創新並不等於放手
即使無惡意行為,單是權限管理失誤、紀錄留存不足或系統行為難以追蹤,已足以引發資料保障與合規層面的重大疑慮。對制度化爭議解決而言,信任一旦受損,修復成本往往遠高於任何效率提升所帶來的短期收益。
面對OpenClaw所代表的技術趨勢,一個成熟的制度回應,並非簡單地選擇擁抱或排拒,而是在創新與風險之間,劃定清晰而可持續的界線。
代理型 AI 可以在沙盒或隔離環境中進行實驗性測試,也可用於研究或內部輔助。
但在其安全性、可靠性及合規性未充分驗證前,直接將其投入實際案件處理流程,並不符合制度化爭議解決一貫的審慎標準。
同時,這亦提醒法律界與相關機構,有必要及早思考並建立相應的管治框架,包括明確的使用政策、權限設計、審計機制及披露要求,而非在技術已被廣泛採用後才倉促補救。
與其說OpenClaw是一個即將全面改變爭議解決實務的工具,不如將其視為一面鏡子,映照出法律科技下一階段必須正視的核心課題。
真正具長遠競爭力的LawTech,並非最具自主性的系統,而是最能被理解、被問責、亦最能被信任的系統。
對於一個致力發展為國際法律及爭議解決服務樞紐的司法管轄區而言,這一點尤其重要。
科技可以走得很快,但制度必須走得穩。唯有在堅守程序公正、責任清晰與制度可信性的前提下,AI才能成為法治的助力,而非其風險來源。

