中新網12月19日電 據彭博社報道,當地時間18日,美國人工智能公司OpenAI在其網站上公布一項安全指南,加強其內部安全流程,并賦予董事會對高風險人工智能的否決權。
據報道,當天,OpenAI發表一系列安全指南,闡釋公司計劃如何應對最強大人工智能(AI)系統可能引起的極端風險。
在該指南下,OpenAI只會在確定最新技術的安全性之后才會開始運用。公司將成立一個顧問團隊以審核安全報告,再轉交公司高層和董事會。雖然公司領導負責做決策,董事會可推翻決定。
OpenAI在2023年10月宣布成立“備災小組”,并會持續評估它的AI系統在網絡安全、化學威脅、核威脅和生物威脅等四大范疇的表現,同時減低科技可能帶來的任何危害。
具體來說,公司檢查的是定義為:能造成上億美元經濟損失,或導致許多個人受傷害或死亡的“災難性”風險。
“AI本身沒有好壞,我們正在塑造它。”領導“備災小組”的亞歷山大·馬德里表示,他的團隊會每月提交報告給內部新成立的安全顧問團隊,再由阿爾特曼與公司董事會判斷分析團隊所提交的建議。
馬德里希望,其他公司能利用OpenAI的指引,來評估旗下AI模型的潛在風險。
2023年3月,包括馬斯克、蘋果聯合創始人斯蒂夫·沃茲尼亞克在內的1000多名人工智能專家和行業高管簽署了一份公開信,他們在公開信中呼吁暫停高級人工智能開發,直至此類設計的共享安全協議經由獨立專家開發、實施和審核。
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。