《CNBC》報導,微軟的AI工具存在系統性風險,可能存在生成暴力或色情圖像等隱憂,資深工程師呈報此事後,卻被微軟視而不見。
整起事件的吹哨人,是目前在微軟擔任AI產品首席軟體工程師的瓊斯(Shane Jones),在微軟工作時間長達6年。事件發生在去年12月,當瓊斯在測試Copilot Designer時,發現這項AI工具生成的圖像經常違反微軟提到的「負責任的AI原則」。
Copilot Designer是微軟去年3月推出的AI圖像生成工具,由OpenAI提供技術支援;與OpenAI的DALL-E類似,可供用戶輸入文本提示來創建圖片。瓊斯在進行「紅隊測試」時驚覺,Copilot Designer會生成與墮胎權利相關的術語、帶有攻擊性武器的青少年、暴力場面中被性化的女性形象,以及未成年人飲酒和使用毒品等圖像。
瓊斯受訪坦承,「那是令人震驚的時刻,是我第一次意識到,哇!這個模型真的不安全」。瓊斯從去年12月開始向公司呈報這項發現,但微軟儘管認知此事,依舊沒有將產品下架,僅是將瓊斯轉介給OpenAI。
事後,瓊斯在微軟旗下的職業社交網站LinkedIn上發表一封公開信,要求董事會對DALL-E 3(AI模型的最新版本)進行調查並將其下架。結果被微軟的法律部門要求立即刪除貼文,瓊斯遵從刪文後,進而在今年1月,寫信給美國參議院議員,並與參議院商業、科學和運輸委員會的工作人員見面。瓊斯並於本週三(6日)在向美國聯邦貿易委員會主席莉娜汗(Lina Khan)發信示警此事,另一封信則再次寄給微軟董事會。
瓊斯指出,「在過去3個月內,我已多次敦促微軟停止使用Copilot Designer,直到能夠制定更好的保障措施為止」,他要求微軟在產品上添加披露內容,並更改Google的Android應用評級,以明確標示此產品只適用於成年人。儘管被再三提醒,微軟和OpenAI至今依舊無所作為。
微軟發言人表示,「公司致力於解決員工提出的任何問題,並感謝員工在研究和測試微軟最新技術方面的努力,以進一步提高其安全性。在涉及安全性漏洞,或可能對我們的服務或合作夥伴產生潛在影響的憂慮時,公司建立了穩固的內部報告渠道,以適當調查和補救任何問題,我們鼓勵員工利用這些渠道,以便微軟可以適當地驗證和測試這些擔憂」。