AI時(shí)代,數(shù)據(jù)安全治理需要做到全程管控。在一些專家看來(lái),“如果靠過(guò)去一些成熟的技術(shù)去解決現(xiàn)在的問題是很難的,今天只能通過(guò)‘用AI對(duì)抗AI’的方式,才能解決內(nèi)容安全的問題?!?/span>
——————————
美國(guó)一項(xiàng)新提出的法案,進(jìn)一步引發(fā)了人們對(duì)大模型時(shí)代數(shù)據(jù)安全問題的關(guān)注。
近日,一名美國(guó)眾議院議員提出了一項(xiàng)《生成式人工智能版權(quán)披露法案(Generative AI Copyright Disclosure Act)》,該法案要求企業(yè)在推出人工智能系統(tǒng)之前要告知政府,同時(shí)還要列出用于構(gòu)建或更改該系統(tǒng)訓(xùn)練數(shù)據(jù)集的所有受版權(quán)保護(hù)的作品。這則法案如被通過(guò),將推動(dòng)美國(guó)人工智能公司在模型訓(xùn)練數(shù)據(jù)的使用上更加透明。
無(wú)獨(dú)有偶,在一個(gè)多月前歐洲議會(huì)投票通過(guò)并批準(zhǔn)的《人工智能法案(Artificial Intelligence Act)》(以下簡(jiǎn)稱《法案》)中,也明確要求對(duì)用于訓(xùn)練、測(cè)試和驗(yàn)證人工智能工具的數(shù)據(jù)進(jìn)行適當(dāng)?shù)臄?shù)據(jù)治理。
“近年來(lái),各國(guó)紛紛出臺(tái)了涉及人工智能的立法和政策,大多數(shù)國(guó)家在制定相關(guān)法規(guī)時(shí)都采取了謹(jǐn)慎的態(tài)度,避免過(guò)度限制人工智能的發(fā)展,以免阻礙創(chuàng)新和進(jìn)步,這彰顯了國(guó)際社會(huì)對(duì)數(shù)據(jù)安全治理的重視?!痹谌涨芭e行的“2024中關(guān)村論壇-數(shù)據(jù)安全治理與發(fā)展論壇”上,香港科技大學(xué)首席副校長(zhǎng)、英國(guó)皇家工程院院士郭毅可說(shuō)。
當(dāng)前,以人工智能(AI)為代表的新技術(shù)應(yīng)用成為發(fā)展新質(zhì)生產(chǎn)力的重要引擎,隨之而來(lái)的數(shù)據(jù)安全治理與發(fā)展也備受關(guān)注。2024中關(guān)村論壇(以下簡(jiǎn)稱“論壇”)期間,舉辦了多場(chǎng)與AI相關(guān)的論壇活動(dòng),“AI時(shí)代的數(shù)據(jù)安全治理”也成為熱點(diǎn)話題,不少國(guó)內(nèi)外專家學(xué)者以及業(yè)界人士在論壇上交流前瞻理念、分享研究成果,深化前沿領(lǐng)域數(shù)據(jù)安全治理效能。
數(shù)據(jù)安全治理新形勢(shì)
AI時(shí)代,“數(shù)據(jù)”是一個(gè)不得不提的關(guān)鍵詞。
“數(shù)據(jù)對(duì)于AI的進(jìn)步非常重要?!痹?024中關(guān)村論壇年會(huì)開幕式上,硅谷人工智能研究院院長(zhǎng)皮埃羅·斯加魯菲說(shuō)。他提到,從1997年IBM的“深藍(lán)”電腦擊敗當(dāng)時(shí)的國(guó)際象棋世界冠軍卡斯帕羅夫,到2016年谷歌人工智能程序AlphaGo戰(zhàn)勝韓國(guó)圍棋世界冠軍李世石,再到如今OpenAI的GPT橫空出世……AI技術(shù)快速發(fā)展背后,主要的驅(qū)動(dòng)因素就是大量的數(shù)據(jù)。
但隨著AI技術(shù)日新月異的變化,尤其是生成式人工智能(AIGC)的快速發(fā)展,其性能在優(yōu)化的同時(shí)也放大了數(shù)據(jù)安全風(fēng)險(xiǎn),其可能引發(fā)的價(jià)值偏見、隱私泄露、虛假信息等問題引起了大眾的擔(dān)憂?!艾F(xiàn)在很多診斷是由AI來(lái)做的,比如你要將GPT用于診斷疾病,我們放心嗎?很多時(shí)候是不放心的?!逼ぐA_·斯加魯菲說(shuō)。
在清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系教授、人工智能研究院基礎(chǔ)模型研究中心副主任黃民烈看來(lái),AIGC的出現(xiàn),使得現(xiàn)在的數(shù)據(jù)安全治理與過(guò)去相比有很大的不同。他表示,AIGC能通過(guò)訓(xùn)練去組合、生成一些在過(guò)去的語(yǔ)料庫(kù)中根本沒有出現(xiàn)過(guò)的新內(nèi)容,這些內(nèi)容可能是有害的。
“在生成式人工智能(AIGC)時(shí)代,我們?cè)跀?shù)據(jù)安全層面,面臨的是不斷組合和創(chuàng)造新的數(shù)據(jù)安全風(fēng)險(xiǎn)的問題,徹底解決這種風(fēng)險(xiǎn),需要算法和工具的支撐,而不是靠人,或者靠一些靜態(tài)的方法去做相對(duì)固定的檢測(cè)?!秉S民烈說(shuō),可以去研究制定一些有針對(duì)性的對(duì)抗和攻擊方法,比如事先讓算法發(fā)現(xiàn)模型的漏洞和風(fēng)險(xiǎn);也可以利用算法追蹤模型存在的風(fēng)險(xiǎn),再有針對(duì)性地制定安全手段。
如今,除了類似ChatGPT的通用大模型,專注某一垂直領(lǐng)域的行業(yè)大模型也層出不窮。奇安信集團(tuán)副總裁劉前偉長(zhǎng)期關(guān)注行業(yè)大模型的數(shù)據(jù)安全治理問題,他觀察到,很多行業(yè)大模型廠商都有一個(gè)普遍的擔(dān)心:模型預(yù)訓(xùn)練的語(yǔ)料會(huì)不會(huì)被其他人竊???
他解釋說(shuō),行業(yè)大模型在做預(yù)訓(xùn)練時(shí),被“喂”的數(shù)據(jù)大多是行業(yè)知識(shí),“這些語(yǔ)料可能是不同企業(yè)最有競(jìng)爭(zhēng)力的一些數(shù)據(jù)?!比绻嬖诼┒?,可能導(dǎo)致這些核心的數(shù)據(jù)資產(chǎn)被泄露出去,“這是在通用大模型里,我們過(guò)去沒有特別關(guān)注的一點(diǎn)”。
同時(shí),作為通用大模型的使用者,很多人都會(huì)問一個(gè)問題:當(dāng)我去問大模型問題時(shí),會(huì)不會(huì)造成商業(yè)機(jī)密、個(gè)人信息的泄露。劉前偉在論壇上也提出了上述疑問。
對(duì)于如何解決上述問題,劉前偉也同意黃民烈教授的觀點(diǎn)。“如果靠過(guò)去一些成熟的技術(shù)去解決現(xiàn)在的問題是很難的,今天只能通過(guò)‘用AI對(duì)抗AI’的方式,才能解決內(nèi)容安全的問題?!?
構(gòu)建安全可信的數(shù)據(jù)治理生態(tài)
2023年5月,包括“ChatGPT之父”山姆·奧特曼(Sam Altman)在內(nèi)350位AI領(lǐng)域權(quán)威人士簽署了一封聯(lián)名公開信,信中寫道:“應(yīng)將緩解AI導(dǎo)致的滅絕風(fēng)險(xiǎn),與其他社會(huì)規(guī)模風(fēng)險(xiǎn)(如大流行病和核戰(zhàn)爭(zhēng))等同重視,作為全球優(yōu)先事項(xiàng)?!?
“人工智能凸顯了數(shù)據(jù)的重要性,再創(chuàng)造一個(gè)全球性的治理框架,建立互信是最重要的因素?!毙录悠沦Y訊通信媒體發(fā)展局局長(zhǎng)柳俊泓在論壇發(fā)言中指出,對(duì)數(shù)據(jù)和AI的信任,是在數(shù)字時(shí)代平衡保護(hù)和創(chuàng)新的基礎(chǔ)。
論壇期間,不少專家在討論中提到了一個(gè)詞——可信AI,該詞的核心就是AI大模型的安全問題。“我們必須認(rèn)識(shí)到數(shù)據(jù)安全是永遠(yuǎn)的命題,一定要‘安全可信’?!敝袊?guó)工程院院士沈昌祥在論壇上表示,要用主動(dòng)免疫可信計(jì)算筑牢人工智能安全防線。
在他看來(lái),數(shù)據(jù)安全治理需要做到全程管控,實(shí)現(xiàn)六個(gè)“不”:首先讓進(jìn)攻者“進(jìn)不去”,進(jìn)去后“拿不到”數(shù)據(jù),即使進(jìn)攻者拿到數(shù)據(jù)也白拿,因?yàn)閿?shù)據(jù)被加密“看不懂”,并且系統(tǒng)帶有自動(dòng)免疫功能,讓進(jìn)攻者“改不了”數(shù)據(jù)。同時(shí),需要保證設(shè)備“癱不了”,能在發(fā)現(xiàn)故障后及時(shí)采取措施確保穩(wěn)定運(yùn)行,最后是確保攻擊行為可追溯“賴不掉”。
"達(dá)到這六個(gè)‘不’的效果,才能使得數(shù)據(jù)安全治理達(dá)到有效的目標(biāo)。”沈昌祥介紹,經(jīng)過(guò)30多年的發(fā)展,我國(guó)已經(jīng)構(gòu)建了比較完整的新型產(chǎn)業(yè)空間。他表示,目前,中國(guó)已經(jīng)具備可信計(jì)算功能的國(guó)產(chǎn)CPU,嵌入式可信芯片及可信根,具備可信計(jì)算3.0技術(shù)的設(shè)備。
除了可信計(jì)算,一系列前沿技術(shù)也為構(gòu)建安全可信的數(shù)據(jù)治理生態(tài)提供支持。香港科技大學(xué)首席副校長(zhǎng)、英國(guó)皇家工程院院士郭毅可認(rèn)為,在增強(qiáng)數(shù)據(jù)安全上,區(qū)塊鏈和量子密碼學(xué)等技術(shù)有較大應(yīng)用前景。
“區(qū)塊鏈有透明和不可更改的技術(shù)特性。”郭毅可說(shuō),將區(qū)塊鏈技術(shù)應(yīng)用在數(shù)據(jù)安全治理領(lǐng)域,能在確保數(shù)據(jù)完整性的同時(shí),進(jìn)一步降低數(shù)據(jù)授權(quán)風(fēng)險(xiǎn)和數(shù)據(jù)篡改風(fēng)險(xiǎn)。他還提到,可以通過(guò)數(shù)據(jù)匿名化技術(shù)、用戶同意和隱私設(shè)計(jì)規(guī)則,以及實(shí)施數(shù)據(jù)分類、訪問控制和加密等方法,保護(hù)知識(shí)產(chǎn)權(quán)和防止未經(jīng)授權(quán)的數(shù)據(jù)披露。
在郭毅可看來(lái),加密技術(shù)能保護(hù)數(shù)據(jù)在靜止和傳輸過(guò)程中的安全。此外,還可以利用差分隱私、數(shù)據(jù)屏蔽等匿名化技術(shù)來(lái)刪除個(gè)人身份信息,以確保數(shù)據(jù)的機(jī)密性,同時(shí)保留其對(duì)AI模型訓(xùn)練的有用性。
“用魔法(即AI技術(shù))打敗魔法”,這是劉前偉提出的AI時(shí)代數(shù)據(jù)安全治理的一大出路。在論壇上關(guān)于AI數(shù)據(jù)安全治理相關(guān)技術(shù)路徑的討論中,隱私計(jì)算、聯(lián)邦學(xué)習(xí)等被反復(fù)提及。
除了問題,AIGC也為數(shù)據(jù)治理提供了新的、更有效的手段。歐洲科學(xué)院院士、清華大學(xué)人工智能研究院常務(wù)副院長(zhǎng)孫茂松提到,現(xiàn)在數(shù)據(jù)里面有很多隱私問題,但可以用生成式人工智能(AIGC)生成符合真實(shí)情況的數(shù)據(jù),同時(shí)規(guī)避掉用戶真實(shí)的隱私數(shù)據(jù)?!八裕瑢?shí)際上生成式人工智能對(duì)我們數(shù)據(jù)治理也有非常重要的正面推動(dòng)作用。”
創(chuàng)新AI監(jiān)管機(jī)制
“數(shù)據(jù)安全治理是人工智能和數(shù)字轉(zhuǎn)型時(shí)代一個(gè)至關(guān)重要且不斷演進(jìn)的議題?!惫憧烧f(shuō),人工智能時(shí)代,需要在保護(hù)數(shù)據(jù)隱私和敏感信息的同時(shí),建立國(guó)際機(jī)構(gòu)框架和法規(guī)來(lái)規(guī)范數(shù)據(jù)安全。
近年來(lái),包括英國(guó)的《支持創(chuàng)新的人工智能監(jiān)管規(guī)則》、歐盟的《人工智能法案》在內(nèi),多個(gè)國(guó)家和地區(qū)陸續(xù)出臺(tái)了相關(guān)的政策和法律,規(guī)范人工智能的發(fā)展,其中有不少內(nèi)容與數(shù)據(jù)安全治理有關(guān)。
2023年8月15日,全球第一部關(guān)于生成式人工智能治理的專門法律規(guī)范《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》)在我國(guó)正式施行。中國(guó)互聯(lián)網(wǎng)協(xié)會(huì)研究中心副主任吳沈括認(rèn)為,《辦法》著眼生成式人工智能服務(wù)語(yǔ)境下的數(shù)據(jù)治理,引入了多項(xiàng)專門規(guī)范,對(duì)于構(gòu)建面向AI時(shí)代的數(shù)據(jù)治理新生態(tài)具有重要的制度指引意義。
在探索人工智能可控發(fā)展過(guò)程中,監(jiān)管沙盒機(jī)制是一個(gè)創(chuàng)新手段。監(jiān)管沙盒是指在風(fēng)險(xiǎn)可控的前提下,通過(guò)設(shè)立限制性條件和制定風(fēng)險(xiǎn)管控措施,允許創(chuàng)新產(chǎn)品技術(shù)服務(wù)或商業(yè)模式在真實(shí)市場(chǎng)環(huán)境中,以真實(shí)用戶為對(duì)象進(jìn)行深度測(cè)試的一種機(jī)制。歐盟《人工智能法案》明確要求其成員國(guó)要?jiǎng)?chuàng)建人工智能監(jiān)管沙盒。目前,挪威、西班牙等國(guó)已開始監(jiān)管沙盒相關(guān)工作。
柳俊泓提到,目前有很多技術(shù)、政策,能讓企業(yè)從消費(fèi)者數(shù)據(jù)集中獲得價(jià)值,同時(shí)也可以確保消費(fèi)者的數(shù)據(jù)集得到保護(hù)。他認(rèn)為接下來(lái)應(yīng)當(dāng)建立監(jiān)管沙盒,在其中使用并且開發(fā)這些技術(shù)和政策,從而能在最大化的使用數(shù)據(jù)的同時(shí),保障數(shù)據(jù)安全。
論壇期間,“北京人工智能數(shù)據(jù)訓(xùn)練基地監(jiān)管沙盒”正式發(fā)布,這是全國(guó)首例人工智能領(lǐng)域監(jiān)管沙盒。北京市經(jīng)濟(jì)和信息化局副局長(zhǎng)毛東軍表示,在管理上,利用監(jiān)管沙盒管理機(jī)制,能幫助企業(yè)在合法合規(guī)的范圍內(nèi)規(guī)避數(shù)據(jù)風(fēng)險(xiǎn);在技術(shù)上,通過(guò)數(shù)據(jù)加密、脫敏技術(shù)、云桌面操作、安全管理等先進(jìn)技術(shù),可以為模型企業(yè)和數(shù)據(jù)企業(yè)提供基礎(chǔ)保障,“真正實(shí)現(xiàn)數(shù)據(jù)的可用、可見、不可得,避免數(shù)據(jù)泄露等高風(fēng)險(xiǎn)事件”。
從出臺(tái)政策、法律,到利用監(jiān)管沙盒進(jìn)行制度和技術(shù)實(shí)驗(yàn),其目的都是推動(dòng)構(gòu)建人工智能(AI)時(shí)代的數(shù)據(jù)安全治理新生態(tài)。
當(dāng)下,給人工智能裝“剎車”成為行業(yè)內(nèi)討論的熱門話題,在論壇上也不鮮見?!啊畡x車’就是針對(duì)技術(shù)性風(fēng)險(xiǎn)的治理體系?!鼻迦A大學(xué)蘇世民書院院長(zhǎng)薛瀾在論壇接受記者采訪時(shí)表示,構(gòu)建治理體系的目的,就是來(lái)規(guī)制濫用、誤用和惡用人工智能的行為。
薛瀾介紹,我國(guó)的人工智能治理體系共有三層,第一層為《新一代人工智能倫理規(guī)范》等所有社會(huì)主體都要遵守的廣泛性基礎(chǔ)性原則;第二層為針對(duì)人工智能具體領(lǐng)域的具體法律法規(guī),比如《辦法》;第三層則是鼓勵(lì)企業(yè)加強(qiáng)內(nèi)部機(jī)制建設(shè),比如成立倫理委員會(huì)等。
如果“剎車”安裝不到位,要如何應(yīng)對(duì)?薛瀾說(shuō):“我們特別鼓勵(lì)企業(yè)加強(qiáng)自身的機(jī)制建設(shè),這非常關(guān)鍵。另外一點(diǎn),也需要全社會(huì)的公眾監(jiān)督?!?
(編輯:映雪)