AI安全風險

AI安全風險|OpenAI員工發公開信警告:AI失控可能造成人類滅絕

人工智能

廣告

AI安全風險近日再次引起公眾關注,一份由OpenAI的現任及前任員工發起的公開信指出,這家領先的人工智能公司在透明度和問責制方面存在嚴重不足,這可能妨礙了公司應對AI潛在風險的能力。公開信中的內容引發了廣泛的討論和關注,特別是在AI技術迅速發展的當下。

AI安全風險丨OpenAI員工的警告

在這份公開信中,16名聯署人包括來自Google DeepMind的員工,他們共同表達了對AI安全風險的擔憂。信中提到,AI的進一步發展可能加深現有的不平等,甚至可能因為AI系統的失控而導致嚴重後果,如人類滅絕的風險。這些員工警告說,AI公司往往因為財務動機而避免實施有效的監督。

AI安全風險丨公司的自我監管問題

公開信強調,AI公司擁有大量關於其系統能力和局限性的非公開資訊。這些資訊的保密性對於公眾了解和監督AI發展至關重要,但目前這些公司對於分享這些資訊沒有太多法律義務。這種情況限制了外部的監管機會,增加了AI發展可能帶來的風險。

AI安全風險丨吹哨者保護的呼籲

信中的聯署人呼籲,應該制定更廣泛的吹哨者保護法律,以保護那些願意公開公司內部問題的員工。這是因為在目前的條件下,公司內部的員工往往是唯一知情並能向公眾通報的人。這樣的法律保護將鼓勵更多員工站出來,對抗可能的不正當行為。

AI安全風險丨OpenAI的回應

對於員工的這份公開信,OpenAI做出了回應。公司表示,他們一直以來都以提供高效能及安全的AI系統為傲,並信賴公司處理風險的科學方法。然而,公司也認同基於AI科技的重要性,進行嚴謹的討論是非常重要的。此外,OpenAI強調,公司沒有出售個人資料或建立用戶檔案來針對任何人。

AI安全風險丨AI教父的支持

值得一提的是,這份公開信的聯署人中包括了幾位被稱為「AI教父」的重量級人物,如Yoshua Bengio、Geoffrey Hinton和Stuart Russell。他們過去也曾公開批評公眾對AI風險的認識不足,並支持進行更多的公開討論和監督。