作者:May Wang 博士,Palo Alto Networks 物聯(lián)網(wǎng)安全首席技術(shù)官
近幾年來(lái),人工智能 (AI) 一直是網(wǎng)絡(luò)安全領(lǐng)域的賭注,但大型語(yǔ)言模型 (LLM) 的廣泛采用使 2023 年成為尤其令人興奮的一年。事實(shí)上,大型語(yǔ)言模型已經(jīng)開(kāi)始轉(zhuǎn)變網(wǎng)絡(luò)安全的整個(gè)格局。然而,它也產(chǎn)生了前所未有的挑戰(zhàn)。
一方面,大型語(yǔ)言模型使處理大量信息變得容易,讓每個(gè)人都可以利用人工智能。大型語(yǔ)言模型可以為管理漏洞、防止攻擊、處理警報(bào)和響應(yīng)事故提供驚人的效率、智能和可擴(kuò)展性。
另一方面,攻擊者也可以利用大型語(yǔ)言模型來(lái)提高攻擊效率,利用大型語(yǔ)言模型引入的額外漏洞,而濫用大型語(yǔ)言模型可能會(huì)造成更多網(wǎng)絡(luò)安全問(wèn)題,例如由于人工智能的普遍使用而導(dǎo)致的無(wú)意數(shù)據(jù)泄露。
大型語(yǔ)言模型的部署需要一種新的網(wǎng)絡(luò)安全思維方式。這種思維更具活力、互動(dòng)性和個(gè)性化。在硬件產(chǎn)品的時(shí)代,硬件只有在被下一個(gè)新版本的硬件取代時(shí)才會(huì)發(fā)生變化。在云時(shí)代,可以更新軟件并收集和分析客戶數(shù)據(jù)來(lái)改進(jìn)下一版本的軟件,但前提是發(fā)布了新版本或補(bǔ)丁。
現(xiàn)在,在人工智能的新紀(jì)元,客戶使用的模型有了自己的智能,可以不斷學(xué)習(xí),根據(jù)客戶的使用情況改變 — 要么更好地服務(wù)于客戶,要么向錯(cuò)誤的方向傾斜。因此,我們不僅需要在設(shè)計(jì)中建立安全性 — 確保我們構(gòu)建安全的模型并防止訓(xùn)練數(shù)據(jù)中毒 — 而且還要在部署后繼續(xù)評(píng)估和監(jiān)控 LLM 系統(tǒng)的安全性、保障性和道德性。
最重要的是,我們需要在我們的安全系統(tǒng)中內(nèi)置智能(例如向兒童灌輸正確的道德標(biāo)準(zhǔn),而不僅僅是規(guī)范兒童的行為),這樣他們才能適應(yīng)性地做出正確而堅(jiān)定的判斷,而不會(huì)輕易被不良意見(jiàn)所迷惑。
大型語(yǔ)言模型為網(wǎng)絡(luò)安全帶來(lái)了什么,是好還是壞?我將分享我們?cè)谶^(guò)去一年中的收獲以及我對(duì) 2024 年的預(yù)測(cè)。
回顧 2023 年
一年前(大型語(yǔ)言模型時(shí)代之前),我在撰寫(xiě)機(jī)器學(xué)習(xí)在網(wǎng)絡(luò)安全中的未來(lái)時(shí),指出了人工智能在網(wǎng)絡(luò)安全領(lǐng)域面臨的三個(gè)獨(dú)特挑戰(zhàn):準(zhǔn)確性、數(shù)據(jù)短缺和缺乏基本事實(shí),以及三個(gè)雖然常見(jiàn)但在網(wǎng)絡(luò)安全領(lǐng)域更為嚴(yán)峻的人工智能挑戰(zhàn):可解釋性、人才稀缺和人工智能安全。
一年后的現(xiàn)在,經(jīng)過(guò)大量探索,我們發(fā)現(xiàn)大型語(yǔ)言模型在這六個(gè)領(lǐng)域中的四個(gè)領(lǐng)域幫了大忙:數(shù)據(jù)短缺、缺乏基本事實(shí)、可解釋性和人才稀缺。另外兩個(gè)領(lǐng)域 — 準(zhǔn)確性和人工智能安全,是極其關(guān)鍵的,但仍然非常具有挑戰(zhàn)性。
我從兩個(gè)方面總結(jié)了在網(wǎng)絡(luò)安全領(lǐng)域使用大型語(yǔ)言模型的最大優(yōu)勢(shì):
1.數(shù)據(jù)
標(biāo)注數(shù)據(jù)
使用大型語(yǔ)言模型幫助我們克服了沒(méi)有足夠“標(biāo)注數(shù)據(jù)”的挑戰(zhàn)。
要使人工智能模型和預(yù)測(cè)更準(zhǔn)確、更適合網(wǎng)絡(luò)安全用例,就必須要有高質(zhì)量的標(biāo)注數(shù)據(jù)。然而,這些數(shù)據(jù)很難獲得。例如,很難發(fā)現(xiàn)能讓我們了解攻擊數(shù)據(jù)的惡意軟件樣本。遭到入侵的企業(yè)并不熱衷于分享這些信息。
大型語(yǔ)言模型有助于收集初始數(shù)據(jù)并根據(jù)現(xiàn)有的真實(shí)數(shù)據(jù)合成數(shù)據(jù),對(duì)其進(jìn)行展開(kāi)以生成有關(guān)攻擊來(lái)源、載體、方法和意圖的新數(shù)據(jù),然后使用這些信息來(lái)構(gòu)建新的檢測(cè),而不局限于實(shí)地?cái)?shù)據(jù)。
基本事實(shí)
正如我一年前的文章中提到的,我們并不總是掌握網(wǎng)絡(luò)安全的基本事實(shí)。我們可以使用大型語(yǔ)言模型,通過(guò)發(fā)現(xiàn)我們的檢測(cè)與多個(gè)惡意軟件數(shù)據(jù)庫(kù)之間的差距、降低誤報(bào)率和頻繁地重新訓(xùn)練模型來(lái)顯著改善基本事實(shí)。
2.工具
大型語(yǔ)言模型特別擅長(zhǎng)使網(wǎng)絡(luò)安全運(yùn)營(yíng)變得更容易、更用戶友好、更具可操作性。到目前為止,大型語(yǔ)言模型對(duì)網(wǎng)絡(luò)安全的最大影響體現(xiàn)在安全運(yùn)營(yíng)中心 (SOC)。
例如,利用大型語(yǔ)言模型實(shí)現(xiàn) SOC 自動(dòng)化背后的關(guān)鍵能力是函數(shù)調(diào)用,這樣有助于將自然語(yǔ)言指令轉(zhuǎn)化為可直接操縱 SOC 的 API 調(diào)用。大型語(yǔ)言模型還可以協(xié)助安全分析師更智能、更快速地處理警報(bào)和事故響應(yīng)。大型語(yǔ)言模型使我們能夠通過(guò)直接從用戶那里獲取自然語(yǔ)言命令來(lái)集成五花八門(mén)的網(wǎng)絡(luò)安全工具。
可解釋性
以前的機(jī)器學(xué)習(xí)模型表現(xiàn)很好,但無(wú)法回答“為什么?”的問(wèn)題。大型語(yǔ)言模型有望通過(guò)準(zhǔn)確而自信地解釋原因來(lái)改變游戲規(guī)則,這將從根本上變革威脅檢測(cè)和風(fēng)險(xiǎn)評(píng)估。
大型語(yǔ)言模型快速分析大量信息的能力有助于關(guān)聯(lián)來(lái)自不同工具的數(shù)據(jù):事件、日志、惡意軟件系列名稱、來(lái)自常見(jiàn)漏洞和暴露 (CVE) 的信息,以及內(nèi)部和外部數(shù)據(jù)庫(kù)。這不僅有助于找到警報(bào)或事故的根本原因,還可以極大地縮短事故管理的平均解決時(shí)間 (MTTR)。
人才稀缺
網(wǎng)絡(luò)安全行業(yè)的失業(yè)率為負(fù)。我們沒(méi)有足夠的專家,人類也無(wú)法追趕海量的警報(bào)。鑒于大型語(yǔ)言模型的優(yōu)勢(shì):快速匯集和消化大量信息、理解自然語(yǔ)言命令、將命令分解成必要步驟以及找到執(zhí)行任務(wù)的正確工具,大型語(yǔ)言模型極大地減輕了安全分析師的工作量。
從獲取領(lǐng)域知識(shí)和數(shù)據(jù)到剖析新的樣本和惡意軟件,大型語(yǔ)言模型可以幫助我們更快、更有效地促進(jìn)構(gòu)建新的檢測(cè)工具,使我們能夠自動(dòng)完成從識(shí)別和分析新的惡意軟件到查明不良行為者的工作。
我們還需要為人工智能基礎(chǔ)設(shè)施構(gòu)建正確的工具,這樣每個(gè)人不必成為網(wǎng)絡(luò)安全專家或人工智能專家,也能從在網(wǎng)絡(luò)安全領(lǐng)域利用人工智能中受益。
2024 年的三大預(yù)測(cè)
人工智能在網(wǎng)絡(luò)安全領(lǐng)域的應(yīng)用越來(lái)越廣泛,很明顯,我們正處于一個(gè)新時(shí)代的開(kāi)端 – 也就是通常所說(shuō)的“曲棍球效應(yīng)”增長(zhǎng)的早期階段。我們對(duì)能夠改善安全狀況的大型語(yǔ)言模型了解得越多,就越有可能在充分利用人工智能方面領(lǐng)先于潮流(以及我們的對(duì)手)。
我認(rèn)為,在網(wǎng)絡(luò)安全領(lǐng)域,有很多方面都已經(jīng)成熟,可以討論越來(lái)越多地使用人工智能來(lái)放大力量,對(duì)抗復(fù)雜性和不斷擴(kuò)大的攻擊載體,但有三件事很突出:
1.模型
人工智能模型將在創(chuàng)造植根于網(wǎng)絡(luò)安全需求的深入領(lǐng)域知識(shí)方面取得巨大進(jìn)步。
去年,人們對(duì)改進(jìn)通用大型語(yǔ)言模型給予了很多關(guān)注。研究人員努力讓模型變得更智能、更快、更便宜。然而,這些通用模型可以交付的功能與網(wǎng)絡(luò)安全的需求之間存在巨大差距。
具體來(lái)說(shuō),我們的行業(yè)不一定需要一個(gè)巨大的模型來(lái)回答“如何制作佛羅倫薩雞蛋”或“誰(shuí)發(fā)現(xiàn)了美洲”這樣多元的問(wèn)題。相反,網(wǎng)絡(luò)安全需要超精確模型,具備網(wǎng)絡(luò)安全威脅、流程等深入的領(lǐng)域知識(shí)。
在網(wǎng)絡(luò)安全中,準(zhǔn)確性至關(guān)重要。例如,我們每天在 Palo Alto Networks 處理來(lái)自世界各地 SOC 的超過(guò) 75TB 的數(shù)據(jù)。即使 0.01% 的錯(cuò)誤檢測(cè)判定也可能是災(zāi)難性的。我們需要具有豐富安全背景和知識(shí)的高精度人工智能,提供專注于客戶安全需求的定制服務(wù)。換句話說(shuō),這些模型需要執(zhí)行的具體任務(wù)更少,但精確度更高。
工程師們?cè)趧?chuàng)建具有更多垂直行業(yè)和特定領(lǐng)域知識(shí)的模型方面取得了巨大進(jìn)步,我相信,以網(wǎng)絡(luò)安全為中心的大型語(yǔ)言模型將在 2024 年出現(xiàn)。
2.用例
網(wǎng)絡(luò)安全領(lǐng)域的大型語(yǔ)言模型將出現(xiàn)變革性用例。這將使大型語(yǔ)言模型對(duì)于網(wǎng)絡(luò)安全不可或缺。
2023 年,每個(gè)人都對(duì)大型語(yǔ)言模型的驚人能力感到無(wú)比興奮。人們用這把“錘子”去敲擊每一顆“釘子”。
2024 年,我們將了解到并非每個(gè)用例都最適合大型語(yǔ)言模型。我們將針對(duì)與大型語(yǔ)言模型的優(yōu)勢(shì)相匹配的特定任務(wù),推出真正的大型語(yǔ)言模型賦能的網(wǎng)絡(luò)安全產(chǎn)品。這將真正為客戶提高效率、改善生產(chǎn)力、增強(qiáng)可用性、解決現(xiàn)實(shí)問(wèn)題并降低成本。
試想一下,能夠閱讀成千上萬(wàn)有關(guān)安全問(wèn)題的劇本,例如配置端點(diǎn)安全設(shè)備、排除性能問(wèn)題、使用適當(dāng)?shù)陌踩珣{據(jù)和權(quán)限引入新用戶,以及逐個(gè)供應(yīng)商地分解安全架構(gòu)設(shè)計(jì)。
大型語(yǔ)言模型以可擴(kuò)展且快速的方式消耗、總結(jié)、分析以及生成正確信息的能力將改變安全運(yùn)營(yíng)中心,并徹底變革調(diào)度安全專業(yè)人員的方式、地點(diǎn)和時(shí)間。
3.人工智能安全與保障
除了利用人工智能實(shí)現(xiàn)網(wǎng)絡(luò)安全之外,如何在不損害人工智能模型智能的情況下構(gòu)建安全的人工智能和安全的人工智能使用也是一個(gè)重要的話題。在這個(gè)方向上已經(jīng)有很多討論和偉大的工作。2024 年,真正的解決方案將得到部署,盡管這些解決方案可能只是初步的,但它們將是朝著正確方向邁出的一步。此外,還需要建立智能評(píng)估框架,動(dòng)態(tài)評(píng)估人工智能系統(tǒng)的安全性和保障性。
請(qǐng)記住,大型語(yǔ)言模型也可能被不良行為者所利用。例如,黑客可以使用大型語(yǔ)言模型輕松生成大量質(zhì)量更高的網(wǎng)絡(luò)釣魚(yú)電子郵件。還可以利用大型語(yǔ)言模型來(lái)創(chuàng)建全新的惡意軟件。但行業(yè)在使用大型語(yǔ)言模型方面正在采取更加協(xié)作和戰(zhàn)略性的行動(dòng),幫助我們相對(duì)于對(duì)手取得領(lǐng)先并保持領(lǐng)先。
2023 年 10 月 30 日,美國(guó)總統(tǒng)約瑟夫·拜登發(fā)布了一項(xiàng)行政命令,內(nèi)容涉及負(fù)責(zé)任且適當(dāng)?shù)厥褂萌斯ぶ悄芗夹g(shù)、產(chǎn)品和工具。這項(xiàng)命令的目的涉及要求人工智能供應(yīng)商采取一切必要手段,確保其解決方案用于適當(dāng)用途,而非惡意目的。
人工智能安全和保障代表一種真正的威脅 — 我們必須認(rèn)真對(duì)待這種威脅,并且要假設(shè)黑客已經(jīng)在設(shè)計(jì)部署來(lái)攻擊我們的防御。人工智能模型已經(jīng)得到廣泛使用,這一簡(jiǎn)單事實(shí)導(dǎo)致攻擊面和威脅載體大幅擴(kuò)張。
這是一個(gè)充滿活力的領(lǐng)域。人工智能模型每天都在進(jìn)步。即使是在部署人工智能解決方案后,模型也會(huì)不斷發(fā)展,永遠(yuǎn)不會(huì)保持靜止。我們非常需要持續(xù)的評(píng)估、監(jiān)控、保護(hù)和改進(jìn)。
越來(lái)越多的攻擊將使用人工智能。作為一個(gè)行業(yè),我們必須把開(kāi)發(fā)安全的人工智能框架作為首要任務(wù)。這就好比當(dāng)今的登月計(jì)劃,涉及供應(yīng)商、企業(yè)、學(xué)術(shù)機(jī)構(gòu)、政策制定者、監(jiān)管機(jī)構(gòu) — 整個(gè)技術(shù)生態(tài)系統(tǒng)的通力合作。毫無(wú)疑問(wèn),這將是一項(xiàng)艱巨的任務(wù),但我想我們都意識(shí)到這是一項(xiàng)多么重要的任務(wù)。
結(jié)語(yǔ):最好的還在后頭
在某種程度上,ChatGPT 等通用人工智能模型的成功已經(jīng)讓我們?cè)诰W(wǎng)絡(luò)安全方面被寵壞了。我們都希望能夠構(gòu)建、測(cè)試、部署并不斷改進(jìn)我們的大型語(yǔ)言模型,使它們更加以網(wǎng)絡(luò)安全為中心,但我們卻被提醒,網(wǎng)絡(luò)安全是應(yīng)用人工智能的一個(gè)非常獨(dú)特、專業(yè)、棘手的領(lǐng)域。我們需要從數(shù)據(jù)、工具、模型和用例這四個(gè)關(guān)鍵方面入手,使其發(fā)揮作用。
好消息是,我們可以接觸到許多聰明、堅(jiān)定的人,他們有遠(yuǎn)見(jiàn),能夠理解為什么我們必須推進(jìn)更精確的系統(tǒng),將功能、智能、易用性以及最重要的網(wǎng)絡(luò)安全相關(guān)性結(jié)合起來(lái)。
我有幸在這個(gè)領(lǐng)域工作了很長(zhǎng)時(shí)間,Palo Alto Networks 內(nèi)部的同事和我們周?chē)男袠I(yè)每天都在取得進(jìn)步,這讓我感到非常興奮和欣慰。
回到預(yù)言家這個(gè)棘手的問(wèn)題上,我們很難對(duì)未來(lái)有絕對(duì)的把握。但我確實(shí)知道這兩件事:
2024 年將是人工智能在網(wǎng)絡(luò)安全領(lǐng)域大顯身手的一年。
而與未來(lái)相比,2024 年將顯得黯然失色。