就在昨天,OpenAI 在其官網發布了一份關于GPT-4o的安全措施及風險評估的研究文件,即GPT-4o System Card。當然,事情本身并算不得上啥新鮮事兒,此前的GPT4乃至DALL-E 3都有相關的研究文件,值得一提的是其中的內容。
GPT-4o發布也有差不多三個月的時間了,不過早在這之前,隨著GPT的強勢表現,以及團隊內成員的公開質疑,AI威脅論的論調也在不斷發酵。而作為一款公開發布的新產品,GPT-4o自然也難免審查。
早在其發布前夕,OpenAI 動用了一組外部紅隊人員(即試圖找出系統弱點的安全專家)來查找模型中的關鍵風險。比如審查GPT-4o是否會在未經授權的情況下克隆某人的聲音、制作色情和暴力內容,或者復制受版權保護的音頻片段。而現在,結果出爐了。
根據 OpenAI 自己的研究框架,研究人員發現 GPT-4o 具有 "中等 "風險。風險評估等級取四個總體類別中的最高風險評級,即在網絡安全、生物威脅、說服能力和模型自主性四個風險評級中,說服能力被評為了“Medium”(中等)。
他們還發現,GPT-4o 的一些寫作樣本比人類創作的文本更能左右讀者的觀點。當然,引經據典的確是AI的特色,至于這個數據對不對,名人有沒有說過的類似的話,那就是另一回事了。
在接受國外媒體The Verge采訪時,OpenAI 發言人表示這份研究報告(GPT-4o System Card),由OpenAI內部團隊以及模型評估與威脅研究公司(METR)和阿波羅研究公司(Apollo Research)共同參與完成。
的確,表明上客觀與公正的確是有了,但也正如上面所說,OpenAI不僅面臨著員工背刺,還承擔政治上的壓力。畢竟能同時被自家員工,州參議員組團發聲明質疑AI安全性的公司可不多見。
The Verge此前還報道了參議員伊麗莎白-沃倫(Elizabeth Warren)和眾議員洛里-特拉漢(Lori Trahan)的一封公開信,信中要求 OpenAI 回答如何處理舉報人和安全審查。
此間更不乏“群眾的呼聲”,很多人都在呼吁OpenAI提高透明度,來要求公開訓練數據的來源以及開發進度。而作為實干派的部分州議員已經在推動對大預言模型進行立法監管。莫名有一種天網既視感……
至少明面上看OpenAI還是愿意做風險評估與控制的,遠遠還達不到一眾AI威脅論中所提及的程度。話說回來,既當裁判員又當運動員,這份GPT-4o System Card可信度幾何,真的很難說。
本文編輯:@ 江城子
?本文著作權歸電手所有,未經電手許可,不得轉載使用。