您現在的位置:首頁 > 資訊 > 國內 > 正文

        AI打敗AI:谷歌研究團隊利用GPT-4擊敗AI-Guard

        時間:2023-08-02 12:16:25    來源:互聯網    


        【資料圖】

        千易網 8 月 2 日消息,谷歌研究團隊正在進行一項實驗,他們使用 OpenAI 的 GPT-4 來攻破其他 AI 模型的安全防護措施,該團隊目前已經攻破 AI-Guardian 審核系統,并分享了相關技術細節。

        千易網經過查詢得知,AI-Guardian 是一種 AI 審核系統,能夠檢測圖片中是否存在不當內容,及圖片本身是否被其他 AI 修改過,若檢測到圖片存在上述跡象,便會提示管理員前來處理。

        谷歌 Deep Mind 的研究人員 Nicholas Carlini 在一篇題為“AI-Guardian 的 LLM 輔助開發”的論文中,探討了使用 GPT-4“設計攻擊方法、撰寫攻擊原理”的方案,并將這些方案用于欺騙 AI-Guardian 的防御機制。

        ▲ 圖源谷歌研究團隊

        據悉,GPT-4 會發出一系列錯誤的腳本和解釋來欺騙 AI-Guardian ,論文中提到,GPT-4 可以讓 AI-Guardian 認為“某人拿著槍的照片”是“某人拿著無害蘋果的照片”,從而讓 AI-Guardian 直接放行相關圖片輸入源。谷歌研究團隊表示,通過 GPT-4 的幫助,他們成功地“破解”了 AI-Guardian 的防御,使該模型的精確值從 98% 的降低到僅 8%。

        目前相關技術文檔已經發布在 ArXiv 中,有興趣的小伙伴們可以前往了解,不過 AI-Guardian 的開發者也同時指出,谷歌研究團隊的這種攻擊方法將在未來的 AI-Guardian 版本中不再可用,考慮到別的模型也會隨之跟進,因此當下谷歌的這套攻擊方案更多在日后只能用于參考性質。

        廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,千易網所有文章均包含本聲明。

        關鍵詞:
        相關新聞

        最近更新

        凡本網注明“XXX(非汪清新聞網)提供”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和其真實性負責。

        特別關注