ChatGPT亂噏有解決方法? OpenAI指有新方法減少AI「幻覺」
去年OpenAI發布了由 GPT-3 和 GPT-4 驅動的聊天機器人 ChatGPT,加速了生成AI的發展,並在兩個月內超過了一億月活躍用戶,創下了增長最快的應用程序的記錄。微軟(MSFT)已向OpenAI投資超過130億美元,這家初創公司的價值已達到約290億美元。
OpenAI 的 ChatGPT 或 Google 的 Bard等人工智能會完全捏造信息,表現得好像它們在講事實。例如,在Google自己2月的Bard宣傳視頻中,這個聊天機器人對韋伯太空望遠鏡提出了不實的主張。最近,ChatGPT在紐約的聯邦法院文件中引用了「虛假」案例,參與其中的紐約律師可能面臨制裁。
據CNBC報道,OpenAI在論文中提出新策略對抗AI幻覺問題。研究人員表示,未來將會在訓練AI模型期間加以監督,當AI在每個步驟推理正確時,便會給予獎勵,而不是僅僅等到推理出正確的最終結論時才給予獎勵。研究人員稱,這種方法被稱為「過程監督」,而不是「結果監督」,因為該策略鼓勵模型,遵循類似人類的思維方法去解決問題,相信這能更有效地訓練AI。
OpenAI 研究人員在報告中寫道,「即使是最先進的模型也容易產生虛假信息,它們表現出在通上不確定的時刻編造事實的傾向。這些幻覺在需要多步推理的領域尤其成問題,因為一個邏輯錯誤就足以破壞更大的解決方案。」

