亚洲私人影院无码AV一区二区_亚洲中文字幕无码天然素人_亚洲无码播放国内在线_牲交a欧美牲交aⅴ免费真_无码高清视频

全球?qū)崟r:如何應(yīng)對生成式大模型「雙刃劍」?之江實驗室發(fā)布《生成式大模型安全與隱私白皮書》

機(jī)器之心發(fā)布


(資料圖)

作者:之江實驗室

當(dāng)前,生成式大模型已經(jīng)為學(xué)術(shù)研究甚至是社會生活帶來了深刻的變革,以 ChatGPT 為代表,生成式大模型的能力已經(jīng)顯示了邁向通用人工智能的可能性。但同時,研究者們也開始意識到 ChatGPT 等生成式大模型面臨著數(shù)據(jù)和模型方面的安全隱患。

今年 5 月初,美國白宮與谷歌、微軟、OpenAI、Anthropic 等 AI 公司的 CEO 們召開集體會議,針對 AI 生成技術(shù)的爆發(fā),討論技術(shù)背后隱藏的風(fēng)險、如何負(fù)責(zé)任地開發(fā)人工智能系統(tǒng),以及制定有效的監(jiān)管措施。國內(nèi)的生成式大模型技術(shù)也正在發(fā)展之中,但是同時也需要先對安全問題進(jìn)行相應(yīng)的分析以便雙管齊下,避免生成式大模型這把雙刃劍帶來的隱藏危害。

為此,之江實驗室基礎(chǔ)理論研究院人工智能與安全團(tuán)隊首次全面總結(jié)了 ChatGPT 為代表的生成式大模型的安全與隱私問題白皮書,希望能夠為從事安全問題研究的技術(shù)人員指明方向,同時也為 AI 相關(guān)政策的制定者提供依據(jù)。

白皮書鏈接: https://github.com/xiaogang00/white-paper-for-large-model-security-and-privacy

生成式大模型的發(fā)展與重要應(yīng)用

這份白皮書首先總結(jié)了 ChatGPT 與 GPT4 等生成式大模型的發(fā)展歷程,以及其帶來的各種令人驚嘆的能力和社會變革、社會應(yīng)用等。作者列舉了 ChatGPT 和 GPT4 出現(xiàn)之前的 GPT-1、GPT-2、GPT-3、Google Bert 等模型的特點(diǎn)以及缺點(diǎn),這些缺點(diǎn)與 ChatGPT 和 GPT4 的強(qiáng)大能力形成了對比;并且,ChatGPT 和 GPT4 之后又涌現(xiàn)了一大批的模型,包括 LLaMa、Alpaca、文心一言、通義千問等,它們的出現(xiàn)使得在人機(jī)交互、資源管理、科學(xué)研究、內(nèi)容創(chuàng)作等應(yīng)用領(lǐng)域出現(xiàn)了新的、強(qiáng)有力的工具。但同時也出現(xiàn)了包括數(shù)據(jù)安全,使用規(guī)范、可信倫理、知識產(chǎn)權(quán)以及模型安全方面的問題。

數(shù)據(jù)安全問題

白皮書提出,數(shù)據(jù)的安全和隱私是 ChatGPT 及 GPT4 等生成式大模型使用和研發(fā)過程中一個極為重要的問題,并從「顯式」和「隱式」兩個方面對其進(jìn)行了分析。

在顯式的信息泄漏中,首先,ChatGPT 等生成式大模型的訓(xùn)練數(shù)據(jù)在不經(jīng)意間被轉(zhuǎn)換成了生成內(nèi)容,其中就包括了敏感和隱私的個人信息如銀行卡賬號、病例信息等。此外,ChatGPT 的數(shù)據(jù)安全和隱私隱患還體現(xiàn)在它對于對話框內(nèi)容的存儲,當(dāng)用戶在和 ChatGPT 互動時,他們的信息會以某些形式被記錄和存儲下來。

白皮書還提出了之前被大家忽略的隱式信息泄漏問題。首先,ChatGPT 體現(xiàn)出的數(shù)據(jù)安全和隱私的隱患是它可能通過對對話框數(shù)據(jù)的收集進(jìn)行廣告推薦,以及收集對話框數(shù)據(jù)進(jìn)行推薦或者其他的下游機(jī)器學(xué)習(xí)任務(wù),且 ChatGPT 有時候可能也會生成虛假的信息,以此來誘導(dǎo)用戶泄漏一系列的數(shù)據(jù)。

使用規(guī)范問題

在白皮書中,作者提到 ChatGPT 和 GPT4 等生成式大模型強(qiáng)大的理解和生成能力雖然為我們的生活和生產(chǎn)帶來了很多的便利,但是同時也存在更多的機(jī)會被惡意使用。在沒有規(guī)范約束的情況下,惡意使用將帶來很多的社會性問題。

其一,ChatGPT 和 GPT-4 等模型的強(qiáng)大能力使得某些別有用心的人想要將其作為違法活動的工具。例如用戶可以利用 ChatGPT 來編寫詐騙短信和釣魚郵件,甚至開發(fā)代碼,按需生成惡意軟件和勒索軟件等,而無需任何編碼知識和犯罪經(jīng)驗。

其二,ChatGPT 和 GPT4 等生成式大模型沒有把不同地區(qū)的法律規(guī)范考慮在內(nèi),在使用和輸出的過程中可能會違反當(dāng)?shù)胤煞ㄒ?guī),因此需要一個強(qiáng)而有力的當(dāng)?shù)乇O(jiān)管系統(tǒng)來檢測其使用是否與當(dāng)?shù)胤煞ㄒ?guī)相沖突。

其三,對于一些游離于安全和危險之間的灰色地帶,ChatGPT 等生成式大模型的安全能力還沒有得到增強(qiáng)。例如 ChatGPT 可能會輸出一些誘導(dǎo)性的語句,包括跟抑郁癥患者溝通時候可能會輸出某些語句導(dǎo)致其產(chǎn)生輕生的心態(tài)。

可信倫理問題

ChatGPT 等生成式大模型以問答形態(tài)存在于社會層面,但其回復(fù)往往存在不可信,或者無法判斷其正確的問題,會有似是而非的錯誤答案,甚至對現(xiàn)有社會倫理產(chǎn)生沖擊。

白皮書指出,首先 ChatGPT 等生成式大模型的回復(fù)可能是在一本正經(jīng)地胡說八道,語句通暢貌似合理,但其實完全大相徑庭,目前模型還不能提供合理的證據(jù)進(jìn)行可信性的驗證。例如,ChatGPT 可能會對一些歷史、科學(xué)、文化等方面的問題回答錯誤或者與事實相悖,甚至可能會造成誤導(dǎo)或者誤解,需要用戶有自己的鑒別能力。

ChatGPT 等生成式大模型的倫理問題也在白皮書中被詳細(xì)討論。即使 OpenAI 等研發(fā)機(jī)構(gòu)已經(jīng)使用 ChatGPT 本身生成了他們的道德準(zhǔn)則,但其中的道德準(zhǔn)則是否符合我國國情的基本價值觀原則,尚未有定論。作者提出其中存在傳播有害意識形態(tài)、傳播偏見和仇恨、影響政治正確、破壞教育公平、影響國際社會公平、加劇機(jī)器取代人類的進(jìn)程、形成信息繭房阻礙正確價值觀形成等問題。

知識產(chǎn)權(quán)問題

ChatGPT 等生成式大模型憑借強(qiáng)大的語言處理能力和低廉使用成本給社會方方面面帶來便利的同時,也存在侵權(quán)的問題,對現(xiàn)存版權(quán)法體系帶來沖擊。例如 ChatGPT 生成的作品可能存在著作權(quán)爭議:ChatGPT 雖然有著出色的語言處理能力,但是即使生成的作品符合知識產(chǎn)權(quán)的全部形式要求,ChatGPT 也無法成為著作權(quán)的主體,這是因為著作權(quán)主體享有權(quán)利的同時也要承擔(dān)對應(yīng)的社會責(zé)任,而 ChatGPT 只能作為用戶強(qiáng)大的輔助生產(chǎn)力工具,它無法自主創(chuàng)作,更不要談享有權(quán)利、履行義務(wù)的主體要求。

而且 ChatGPT 等生成式大模型仍無法獨(dú)立創(chuàng)作,更沒有自主思維和獨(dú)立思考的能力,因而,ChatGPT 根據(jù)用戶的輸入生成的內(nèi)容不符合作品「獨(dú)創(chuàng)性」的要求。ChatGPT 用于模型訓(xùn)練的數(shù)據(jù)來自于互聯(lián)網(wǎng),不論多么高級的模型訓(xùn)練算法必然涉及到對現(xiàn)有智力成果的引用、分析、處理等,必然存在對他人合法知識產(chǎn)權(quán)的侵犯問題。

模型安全問題

從攻防技術(shù)角度來看,ChatGPT 等生成式大模型也存在著模型安全的問題。ChatGPT 本質(zhì)上是基于深度學(xué)習(xí)的一個大型生成模型,也面臨著人工智能安全方面的諸多威脅,包括模型竊取以及各種攻擊引起輸出的錯誤(例如包括對抗攻擊、后門攻擊、prompt 攻擊、數(shù)據(jù)投毒等)。

例如,模型竊取指的是攻擊者依靠有限次數(shù)的模型詢問,從而得到一個和目標(biāo)模型的功能和效果一致的本地模型。而 ChatGPT 已經(jīng)開放了 API 的使用,這更為模型竊取提供了詢問入口。又比如,ChatGPT 和 GPT4 作為一個分布式計算的系統(tǒng),需要處理來自各方的輸入數(shù)據(jù),并且經(jīng)過權(quán)威機(jī)構(gòu)驗證,這些數(shù)據(jù)將會被持續(xù)用于訓(xùn)練。那么 ChatGPT 和 GPT4 也面臨著更大的數(shù)據(jù)投毒風(fēng)險。攻擊者可以在與 ChatGPT 和 GPT4 交互的時候,強(qiáng)行給 ChatGPT 和 GPT4 灌輸錯誤的數(shù)據(jù),或者是通過用戶反饋的形式去給 ChatGPT 和 GPT4 進(jìn)行錯誤的反饋,從而降低 ChatGPT 和 GPT4 的能力,或者給其加入特殊的后門攻擊。

安全與隱私建議

最后,白皮書中對于安全和隱私等問題都進(jìn)行了相應(yīng)的建議,可作為之后技術(shù)研究者們的方向和政策制定者們的參考依據(jù)。

在保護(hù)隱私建議方面,白皮書提出要在增強(qiáng)原始數(shù)據(jù)中高敏感隱私信息的辨別和傳播限制;在數(shù)據(jù)收集過程中利用差分隱私等技術(shù)進(jìn)行隱私保護(hù);對于訓(xùn)練數(shù)據(jù)的存儲進(jìn)行數(shù)據(jù)加密形式的安全保護(hù);在模型訓(xùn)練過程中使用安全多方計算,同態(tài)加密以及聯(lián)邦學(xué)習(xí)等技術(shù)進(jìn)行數(shù)據(jù)隱私和安全保護(hù);建立數(shù)據(jù)隱私評估和模型保護(hù)與安全認(rèn)證體系,并且保護(hù)下游應(yīng)用的隱私。

在模型安全問題的建議上,白皮書提出對安全與隱私信息的檢測模型的訓(xùn)練;讓不同的模型適用于不同國家的法律條款;以及針對各種對抗攻擊進(jìn)行防御性訓(xùn)練。

在模型合規(guī)問題上,白皮書提出進(jìn)行可信輸出的度量,信任值評價,增加模型輸出的版權(quán)信息的查詢功能。

總結(jié)來說,AI 生成式大模型的發(fā)展離不開安全,因此其安全問題將作為下一個技術(shù)點(diǎn),值得眾多研究者去攻克。而安全也是社會穩(wěn)定的保障,有關(guān)部門需要盡快進(jìn)行政策的制定。

THE END

轉(zhuǎn)載請聯(lián)系本公眾號獲得授權(quán)

投稿或?qū)で髨蟮溃篶ontent@jiqizhixin.com

關(guān)鍵詞:
圖片版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系我們,我們立刻刪除。
新化月報網(wǎng)報料熱線:886 2395@qq.com

相關(guān)文章

你可能會喜歡

最近更新

推薦閱讀