生成式ai版權及私隱需要關注 資料圖片

生成式AI版權及私隱需要關注

人工智能

廣告

近日,Unity(美股代號:U)推出兩款全新的人工智能(AI)產品UnityMuse創作平台和UnitySentis引擎,旨在幫助創作者增強即時3D(RT3D)內容;其最終目標是讓用戶能在Unity編輯器裏,藉助文字提示或草圖輕鬆實現創作。

其中Unity Muse內的Muse Chat,具備AI搜索Unity文檔及培訓教程,可運行的代碼示列,輸入內容來快速排除故障,或是簡單獲得各種情報資訊,以加快開發和答疑。
此外,Muse Chat中還可以實現輸入文本便能生成角色模型動畫,同時也可以快速生成2D的Sprite。
由於還在封閉測試期,Muse的實際使用效果還未可知,不過根據官方的效果展示,可以看出其功能及產出品質均還是可以的。
AI產品的終極理想,是可以用比人類快得多的速度生成內容和開發應用程式。這使企業能夠簡化營運、提高生產力,並更快地將內容或應用程式推向市場。

通過自動化內容創建和應用程式開發,組織可以節省勞動力成本,並減少對大量人力資源的需求。
不過,一些開發人員和專業藝術家批評這些工具不切實際、不道德或法律上可疑。
不同國家關於人工智能程序使用的法律仍懸而未決,這些程序經常在未經創作者同意的情況下,在互聯網上抓取藝術、寫作和編程內容,針對工具本身和使用它們的公司都提起了訴訟。
許多開發人員提出的第一個問題是「你在甚麼數據集上訓練這些數據?」,然而Unity的聲明並沒有解答這些擔憂,只提到了它使用獲得許可的第三方LLM大語言模型,Muse Chat裏面的LLM不是自己的自家開發的LLM,但是沒有聲明是用了哪家公司的LLM模型。

Unity可能沒有進行盡職調查,來確定資料集的來源,並且很可能他們使用的第三方廠商LLM,是基於被盜的個人資料和從未同意這樣的事情的人的對話而建立的,意思是AI底層大語言模型研發提供者,有可能並不認定為隱私資料合規上的法律主體。
不過,Unity之前在技術開放日,也講述會探索將用戶的隱私數據更安全地在本地做管理,在保護用戶隱私的情況下,用戶可以實現在本地部署引擎,可見他們也會注重數據隱私。

意大利禁止使用ChatGPT

不過,這種LLM訓練方面的數據隱私,也不是第一天的爭議了。其實自OpenAI推出後,便一直對如此大規模手機個人數據引發了有爭論與擔憂。例如,根據歐盟的通用資料保護條例(GDPR),未經資料主體通知或同意,就大量個人資料訓練商業模型缺乏法律依據。

因此,出於隱私考慮,意大利甚至禁止使用ChatGPT;然而,語言模型的隱私分析,很少被探索並且仍是一個未知的領域,大多數LLM僅提供應用程式設計發展介面(API),公眾無法檢查模型權重和訓練語料庫。
最後,也不可否認,負責任的模型開發者,會在研發階段對包括隱私在內的資料安全問題應予以高度關注;在資料來源中包含的個人資訊,也會主動採取刪除、匿名化等措施,進一步降低隱私和資料合規風險。

撰文:經一編輯部圖片來源:資料圖片