“萬模裸奔”,DeepSeek正顛覆網(wǎng)絡(luò)安全行業(yè)游戲規(guī)則
當(dāng)前位置:點(diǎn)晴教程→知識(shí)管理交流
→『 技術(shù)文檔交流 』
GoUpSec點(diǎn)評(píng):“村村點(diǎn)火”的生成式AI正引發(fā)一場(chǎng)企業(yè)網(wǎng)絡(luò)安全革命。AI工具引入了全新的攻擊媒介和數(shù)據(jù)安全威脅,傳統(tǒng)的靜態(tài)防御體系已形同虛設(shè),網(wǎng)絡(luò)安全行業(yè)面臨一場(chǎng)技術(shù)/工具、方法和技能的全面更新。 對(duì)于企業(yè)而言,AI既是提升生產(chǎn)力的強(qiáng)大工具,同時(shí)也為攻擊者和惡意內(nèi)部人員提供了“大殺器”。隨著生成式AI(例如ChatGPT和DeepSeek)在企業(yè)和政府機(jī)構(gòu)中的廣泛應(yīng)用和不安全部署,“萬模裸奔”產(chǎn)生的數(shù)據(jù)安全風(fēng)險(xiǎn)已經(jīng)到了失控的邊緣。 2025年是AI安全元年,首席信息安全官(CISO)們必須提前做好準(zhǔn)備,應(yīng)對(duì)“萬模裸奔”引發(fā)的數(shù)據(jù)安全危機(jī)。 警惕數(shù)據(jù)的“智能化泄漏” 與傳統(tǒng)IT系統(tǒng)不同,生成式AI引入了全新的攻擊媒介,可導(dǎo)致數(shù)據(jù)泄漏、業(yè)務(wù)中斷甚至法律風(fēng)險(xiǎn)例如:
由于生成式AI的發(fā)展和普及速度很快,CISO和安全團(tuán)隊(duì)往往缺乏足夠經(jīng)驗(yàn)和技能應(yīng)對(duì)AI安全風(fēng)險(xiǎn),在威脅建模和風(fēng)險(xiǎn)評(píng)估方面存在較大差距。 面對(duì)洶涌的生成式AI浪潮,企業(yè)最擔(dān)心的還是數(shù)據(jù)安全問題(例如商業(yè)機(jī)密數(shù)據(jù)被競(jìng)爭(zhēng)對(duì)手獲取)。以最近的一起案例為例:一名員工利用AI助手訪問了企業(yè)內(nèi)部數(shù)據(jù)庫,竊取了包含客戶銷售記錄和產(chǎn)品使用情況的敏感數(shù)據(jù),并將其帶到新的雇主處使用。 這正是生成式AI放大數(shù)據(jù)泄露風(fēng)險(xiǎn)的典型例子。據(jù)Gartner最新研究,微軟365 Copilot、Salesforce等基于生成式AI的工具正成為企業(yè)提升生產(chǎn)力的利器,但其對(duì)數(shù)據(jù)安全的威脅亦呈指數(shù)級(jí)攀升。近60%的受訪者認(rèn)為,過度共享、數(shù)據(jù)泄漏和內(nèi)容蔓延是企業(yè)部署人工智能助手時(shí)面臨的最大風(fēng)險(xiǎn)。 Salesforce首席執(zhí)行官M(fèi)arc Benioff在2024年10月公開批評(píng)了Microsoft的Copilot,稱其為“令人失望的Clippy 2.0”。他引用了Gartner的報(bào)告,強(qiáng)調(diào)了Copilot在數(shù)據(jù)過度共享和安全方面的問題,導(dǎo)致許多組織推遲了實(shí)施計(jì)劃。 AI引爆“權(quán)限炸彈” 研究顯示,企業(yè)近99%的訪問權(quán)限處于閑置狀態(tài),其中過半屬于高風(fēng)險(xiǎn)權(quán)限。傳統(tǒng)安全管理中,冗余權(quán)限本已是重大隱患,而生成式AI的介入使問題急劇惡化,甚至?xí)@些“權(quán)限炸彈”,以幾何級(jí)數(shù)放大數(shù)據(jù)安全風(fēng)險(xiǎn)。例如,Microsoft Copilot可以訪問所有用戶權(quán)限范圍內(nèi)的數(shù)據(jù),即使用戶本人并未意識(shí)到自己擁有這些權(quán)限。這意味著,敏感數(shù)據(jù)可能通過AI對(duì)話被無意或惡意泄露。 AI改寫網(wǎng)絡(luò)攻擊游戲規(guī)則:從技術(shù)滲透到提示注入 除了增加數(shù)據(jù)泄漏風(fēng)險(xiǎn)外,生成式AI還在改寫網(wǎng)絡(luò)攻擊的游戲規(guī)則。傳統(tǒng)黑客攻擊通常需要攻擊者耐心滲透系統(tǒng),探索內(nèi)部環(huán)境,生成式AI徹底顛覆了傳統(tǒng)攻擊模式。攻擊者無需再耗時(shí)滲透系統(tǒng),只需向AI助手提問(提示注入)即可獲取敏感信息或訪問憑證,進(jìn)而實(shí)施橫向移動(dòng)。當(dāng)前AI對(duì)網(wǎng)絡(luò)安全的六大核心挑戰(zhàn)包括:
盡管這些風(fēng)險(xiǎn)并非新問題,但AI的介入極大地降低了信息泄露的門檻,使得攻擊者比以往更容易大規(guī)模高效率利用企業(yè)的安全漏洞。 萬模裸奔:部署開源模型的風(fēng)險(xiǎn) 隨著開源AI模型的興起,許多企業(yè)選擇部署如DeepSeek等模型,以期在本地環(huán)境中利用AI技術(shù)。然而,這種做法也帶來了新的安全隱患。 根據(jù)奇安信近日發(fā)布的資產(chǎn)測(cè)繪監(jiān)測(cè)結(jié)果,在8971個(gè)Ollama(一款開源大語言模型服務(wù)工具)大模型服務(wù)器中,有6449個(gè)活躍服務(wù)器,其中88.9%都“裸奔”在互聯(lián)網(wǎng)上,面臨數(shù)據(jù)泄漏、服務(wù)中斷和濫用等嚴(yán)重威脅。私有化部署開源模型的風(fēng)險(xiǎn)主要有以下幾點(diǎn): 暴露的服務(wù)器風(fēng)險(xiǎn) 近期,有攻擊者通過自動(dòng)化腳本掃描暴露的DeepSeek服務(wù)器,惡意占用大量計(jì)算資源,導(dǎo)致部分用戶服務(wù)器崩潰。 缺乏安全認(rèn)證 一些工具(例如Ollama)在默認(rèn)情況下未提供安全認(rèn)證功能,導(dǎo)致許多部署DeepSeek的用戶忽略了必要的安全限制,未對(duì)服務(wù)設(shè)置訪問控制。這使得任何人都可以在未經(jīng)授權(quán)的情況下訪問這些服務(wù),增加了數(shù)據(jù)泄露和服務(wù)中斷的風(fēng)險(xiǎn)。 模型固件加密不足 在本地化部署中,模型核心邏輯需要嵌入硬件固件,以防止惡意篡改或逆向工程。如果缺乏適當(dāng)?shù)募用艽胧粽呖赡軙?huì)利用這些漏洞,進(jìn)一步威脅系統(tǒng)的安全性。 數(shù)據(jù)合規(guī)性問題 開源模型的訓(xùn)練數(shù)據(jù)來源復(fù)雜,可能涉及版權(quán)和隱私問題(甚至導(dǎo)致嚴(yán)厲監(jiān)管處罰的內(nèi)容安全問題)。企業(yè)在使用這些模型時(shí),需要確保數(shù)據(jù)來源合法,并在部署前進(jìn)行全面的安全測(cè)試,以避免潛在的法律和安全風(fēng)險(xiǎn)。 構(gòu)筑新型AI防御體系的八大關(guān)鍵措施 要想降低AI帶來的數(shù)據(jù)安全風(fēng)險(xiǎn),CISO們必須夯實(shí)數(shù)據(jù)管理基礎(chǔ),方可引入AI工具。在部署基于大模型的AI工具(無論是開源還是閉源,云端還是本地私有部署)之前,企業(yè)需要明確所有敏感數(shù)據(jù)的存儲(chǔ)位置,并具備識(shí)別風(fēng)險(xiǎn)、修復(fù)安全漏洞和優(yōu)化權(quán)限配置的能力。 企業(yè)部署DeepSeek等開源模型時(shí),需重視和采取以下主動(dòng)防御措施:
在AI工具正式投入使用后,安全管理人員需要采取以下持續(xù)監(jiān)控措施:
生成式AI快速普及帶來的數(shù)據(jù)安全威脅正在引發(fā)一場(chǎng)企業(yè)網(wǎng)絡(luò)安全革命,導(dǎo)致企業(yè)安全體系的大規(guī)模范式轉(zhuǎn)移。CISO必須意識(shí)到:當(dāng)AI工具能瞬間調(diào)用全網(wǎng)數(shù)據(jù)時(shí),傳統(tǒng)的靜態(tài)防御體系已形同虛設(shè)。唯有將安全文化、數(shù)據(jù)治理、權(quán)限管控與行為分析深度耦合,方能駕馭AI這把“效率與風(fēng)險(xiǎn)并存的大殺器”。要想因?qū)Πㄓ白覣I在內(nèi)的生成式AI帶來的數(shù)據(jù)安全危機(jī),CISO亟需開展一場(chǎng)融合技術(shù)、管理與文化的系統(tǒng)性變革。 該文章在 2025/2/21 10:50:47 編輯過 |
關(guān)鍵字查詢
相關(guān)文章
正在查詢... |