ChatGPT亂噏有解決方法? OpenAI指有新方法減少AI「幻覺」
廣告
ChatGPT等聊天機械人在過去幾個月裡風靡全球,這些由人工智能(AI)所生產出來的答案有條不紊,能解答用戶不少疑問和協助工作。不過,這些答案有時會存有一些完全捏造的錯誤信息,這現象被外界「幻覺」(hallucination)。ChatGPT開發商OpenAI週三(31日)宣布,他們正採用一種新方法以對抗人工智能的「幻覺」。
去年OpenAI發布了由 GPT-3 和 GPT-4 驅動的聊天機器人 ChatGPT,加速了生成AI的發展,並在兩個月內超過了一億月活躍用戶,創下了增長最快的應用程序的記錄。微軟(MSFT)已向OpenAI投資超過130億美元,這家初創公司的價值已達到約290億美元。
OpenAI 的 ChatGPT 或 Google 的 Bard等人工智能會完全捏造信息,表現得好像它們在講事實。例如,在Google自己2月的Bard宣傳視頻中,這個聊天機器人對韋伯太空望遠鏡提出了不實的主張。最近,ChatGPT在紐約的聯邦法院文件中引用了「虛假」案例,參與其中的紐約律師可能面臨制裁。
據CNBC報道,OpenAI在論文中提出新策略對抗AI幻覺問題。研究人員表示,未來將會在訓練AI模型期間加以監督,當AI在每個步驟推理正確時,便會給予獎勵,而不是僅僅等到推理出正確的最終結論時才給予獎勵。研究人員稱,這種方法被稱為「過程監督」,而不是「結果監督」,因為該策略鼓勵模型,遵循類似人類的思維方法去解決問題,相信這能更有效地訓練AI。
OpenAI 研究人員在報告中寫道,「即使是最先進的模型也容易產生虛假信息,它們表現出在通上不確定的時刻編造事實的傾向。這些幻覺在需要多步推理的領域尤其成問題,因為一個邏輯錯誤就足以破壞更大的解決方案。」