隨著AI技術的迅速發展,其潛在風險也不斷增加。AI系統可能出現偏見、傳播虛假訊息,甚至讓人上癮。此外,還有更多遠景性的風險,例如AI技術或許會被用來創造生物或化學武器,甚至可能有一天失去人類的控制。為了有效管理這些風險,首先必須了解它們的存在。麻省理工學院(MIT)CSAIL的FutureTech團隊與多位合作夥伴共同編輯並於今日上線的AI風險資料庫,或許可以幫助我們了解這些風險。
這個AI風險資料庫記錄了700多個AI可能造成的潛在威脅,成為目前最全面的資料來源。資料庫的製作團隊從同行評審的學術文章及預印本資料庫中,梳理了與AI系統相關的風險。這些風險主要集中在系統安全性與穩定性(76%)、不公平的偏見和歧視(63%)、以及隱私安全的問題(61%)。另外,還有一些比較罕見且難以預測的風險,例如AI可能感知疼痛或死亡的可能性。
一個重要的發現是,絕大多數AI風險是在模型部署後才被發現的。資料庫顯示,只有10%的風險在模型上線之前被識別。這一事實讓我們重新思考應該如何評估AI風險。傳統上,我們的做法是確保模型在上線前是安全的,但這份資料庫指出,AI模型的風險範圍十分廣泛,其中許多風險無法在部署前就檢查出來。因此,MIT FutureTech的總監尼爾·湯普森(Neil Thompson)建議,審計人員、政策制定者及實驗室的科學家們應考慮在AI模型上線後進行持續的監測,以定期評估其所帶來的風險。
湯普森提到,過去曾有許多類似的努力,但大多僅限於探討AI帶來的單一風險問題。這種零散的方法難以全面掌握AI的各種潛在危險。而這次的資料庫則是一次嘗試,試圖將各類AI風險問題進行統一的整理。
儘管這個資料庫非常全面,但仍然很難確定應優先關注哪些AI風險。這個問題的複雜性在於我們尚未完全理解前沿AI系統的運作機制。為了避免預設立場,資料庫的創作者刻意沒有將風險按照危險程度進行排名。資料庫的首席作者彼得·斯萊特利(Peter Slattery)指出,這個資料庫的主要目的是提供一個中立而全面的風險清單,所有風險都會被公開透明地呈現,而不是由資料庫作者做出價值判斷。
然而,這種中立的態度可能會限制資料庫的實際效用。來自史丹佛大學AI安全中心的博士生安卡·魯爾(Anka Reuel)認為,單純地羅列風險已經不再是目前的主要問題。她強調,我們需要轉向下一步——應該具體討論如何應對這些風險。她認為,儘管這份資料庫為未來的研究提供了良好的基礎,但我們現在更應該專注於轉化這些風險,探討具體的應對措施。
這份資料庫的發布為未來的AI風險研究鋪設了道路。湯普森指出,資料庫的創建目的之一就是希望了解哪些風險尚未被充分研究,或者有哪些風險仍未被解決。他表示,「我們最擔心的是,是否存在研究的盲點?」
斯萊特利強調,這份資料庫是一個「活著的資料庫」,並不是一個最終的成果。他表示,資料庫的創作者非常期待社會大眾的回饋,並希望通過不斷更新資料庫來完善這一工具。他們認為,這只是研究AI風險的一個開始,並不是最終答案。
摘自:https://www.technologyreview.com/2024/08/14/1096455/new-database-lists-ways-ai-go-wrong/