ChatGPT

ChatGPT幫手無成本做嘢 Gartner專家拆解四大必睇位

市場動態

廣告

專門研究人工智能 (AI) 及部署的公司OpenAI,推出的人工智能聊天機械人ChatGPT,在全球掀起一股與AI對話的熱潮。根據 OpenAI 的說法,ChatGPT能夠與回答使用者的後續問題(Follow-up questions),擁有承認錯誤的能力,並且會挑戰不正確的問題前設,以及拒絕不適當的請求。全球知名的IT研究與顧問諮詢公司Gartner的高層,早前就分享了對ChatGPT的四問四答,讓大家可以一窺ChatGPT的秘密,更分析了可以如何將這類AI工具,應用於企業運作。

自ChatGPT推出以來,大眾一直圍繞著這項AI技術的潛在可能性和危險性,包括為Coding debug,到為大學生撰寫論文的潛力,展開熱烈的討論。Gartner 的副總裁ern Elliot詳細探討了ChatGPT帶來的影響,以及數據和分析 (D&A) 領導者,可以做甚麼來確保負責任地使用這些工具。

如想了解更多AI的應用,不妨看看《AI 改變世界》,了解AI如何提升工作效率。

問:為什麼 ChatGPT 會引起這麼多關注,它與以往的對話式 AI 有何不同?

答:ChatGPT是當前兩個熱門人工智能議題:聊天機器人(Chatbot)和GPT3的完美結合。兩者的在一起提供了非常有趣的互動,並產出看起來非常人性化的內容。而Chatbot和GPT3都分別在過去五年中,在其技術範疇中有顯著進步。

Chatbot讓與其的對話看起來「智能」,而GPT3的輸出則似乎「理解」了所接收的問題和前文後理,兩者的結合便製造了「究竟是人類還是電腦?」的恐怖谷效應(uncanny valley effect),也令人不禁聯想,該稱之為一台像人一樣的電腦嗎?與ChatGPT的互動,更會感到其回應有時幽默,有時深刻,有時富有洞察力。

唯一要注意的是,ChatGPT所回應的內容有時並不正確,而其回答從來都不是以人的理解或智慧處理。這個落差可能源於「理解(Understand)」和「智能(Intelligent)」這兩個形容ChatGPT的術語:這兩個術語隱含著人類特性,因此將它們應用於ChatGPT等的AI工具上,可能會引致嚴重的誤解。更好的處理是將Chatbot和GPT等大型語言模型(LLM),視為完成特定任務的潛在有用工具;而其成功的定義,則取決於這些技術能否為企業組織帶來實質好處。

問:ChatGPT 的潛在使用方式,尤其是在企業中有哪一些?

答:Chatbot或對話助手提供了與用家之間細緻的互動。Chatbot本身有很多應用實例,包括提供客戶服務,以致是協助技術人員識別問題。

從高層次上看,ChatGPT是一個特定的Chatbot應用實例,用於與GPT訊息源互動或交談。在這種情況下,GPT訊息源由OpenAI針對特定領域進行訓練,而其訓練數據就決定了問題的回答方式。但如前所述,無法預測GPT會否生成錯誤訊息,意味著GPT所產生的訊息,只能用於容許或可以糾正錯誤的情況。

在軟件工程和科學研究及開發等領域,GPT等基礎模型擁有很多使用實例。例如基礎模型已用於從文本創建圖像(text to image);從natural language生成、審查和審計代碼 (code),如智能合約;甚至在醫療保健領域中,創造新藥和破譯用於疾病分類的基因組序列等。

問:圍繞ChatGPT和其他類似AI模型的道德問題是什麼?

A:GPT等AI基礎模型,其實反映了在AI領域的一場大變革。它們具有獨特優勢,例如大幅減少創建特定領域模型所需的成本和時間。然而,它們也會帶來風險和道德問題,包括:

複雜性(Complexity):大型模型涉及數十億甚至數萬億個參數。由於必需的運算資源龐大,這些模型對於大多數組織來說無法訓練,這可能使它們變得昂貴。

權力集中(Concentration of power):這些模型主要由全球最大的科技公司建立,他們擁有用在研發投資和聘請AI人才的巨額款項,致使權力集中在少數財力雄厚的大型機構中,未來或造成嚴重權力失衡。

潛在的誤用(Potential misuses):基礎模型降低了內容創建的成本,這意味著創建與原始內容非常相似的deepfakes變得更加容易,如語音和視訊模仿,甚至是虛假藝術,以及具針對性的攻擊。這些嚴重的倫理問題,有可能會引致聲譽侵害,或導致政治衝突。

黑盒性質(Black-box nature):這些模型仍然需要仔細訓練,並由於其黑盒性質,可能會產生不可接受的結果。

知識產權(Intellectual property):該模型是在創作作品的資料庫上訓練的,目前還不清楚如果這些內容是源自他人的知識產權,重用這些內容所引致的法律問題。

問:D&A 領導者如何以合乎道德的方式將 AI 基礎模型整合到他們的組織中?

答:從自然語言處理 (natural language processing, NLP) 開始工作項目,如非面向客戶場景的分類、摘要和文本生成,並於特定相關任務採用已受訓練的模型,以避免昂貴的個人化選項或再訓練成本,建議在使用時最好交由人類對AI所輸出內容作審查。另外,可建立一份策略文件,概述GPT等AI基礎模型的優勢、風險、機遇和部署路線圖,有助確定使用AI的好處是否大於風險。

使用於雲端的API來使用相關模型,並選擇能降低操作複雜性、降低能耗和優化總體成本,並能提供準確度和性能兼備的最小規模模型。建議優先考慮那些已發布使用指南、執行指南、記錄已知的漏洞和弱點,並主動披露有害行為和誤用場景的服務供應商。

資料來源:Gartner

圖片來源:Unsplash@Om siva Prakash