隨著AIGC應(yīng)用的普及,不法分子利用AI技術(shù)犯罪的手段越來越高明,欺騙、敲詐、勒索也開始與人工智能沾邊。
近期,專為網(wǎng)絡(luò)犯罪設(shè)計(jì)的“暗黑版GPT”持續(xù)浮出水面,它們不僅沒有任何道德界限,更沒有使用門檻,沒有編程經(jīng)驗(yàn)的小白能通過問答的方式實(shí)施黑客攻擊。
(資料圖片僅供參考)
AI犯罪的威脅離我們越來越近,人類也開始加筑新的防火墻。
現(xiàn)在,企圖“消滅人類”的ChaosGPT和幫助網(wǎng)絡(luò)犯罪的 WormGPT 之后,出現(xiàn)了一種更具威脅的人工智能工具。被稱為“FraudGPT”的新興網(wǎng)絡(luò)犯罪AIGC工具匿藏暗網(wǎng),并開始在Telegram等社交媒體中打廣告。
與WormGPT一樣,F(xiàn)raudGPT也是人工智能大語言模型,專為作惡而設(shè)計(jì),被比作“網(wǎng)絡(luò)罪犯的武器庫”。通過接受不同來源的大量數(shù)據(jù)訓(xùn)練,F(xiàn)raudGPT不但能寫出釣魚郵件,還能編寫惡意軟件,哪怕是技術(shù)小白也能通過簡單的問答方式實(shí)施黑客攻擊。
FraudGPT在打廣告
FraudGPT的功能需付費(fèi)開啟,200美元(約1400元)就能使用。發(fā)起人聲稱,F(xiàn)raudGPT 迄今為止已確認(rèn)銷量超過3000。也就是說,至少3000人已為這一毫無道德邊界的作惡工具付費(fèi),低成本的AIGC犯罪有可能威脅普通人。
據(jù)電子郵件安全供應(yīng)商Vade 檢測,2023年上半年,僅網(wǎng)絡(luò)釣魚和惡意郵件就達(dá)到了驚人的億封,同比增長了 54% 以上,AI很可能是加速增長的推動(dòng)因素。網(wǎng)絡(luò)安全獨(dú)角獸公司Tanium的首席安全顧問Timothy Morris表示,“這些電子郵件不僅語法正確,更有說服力,而且可以被毫不費(fèi)力地創(chuàng)建,這降低了任何潛在罪犯的進(jìn)入門檻?!彼赋觯?yàn)檎Z言已經(jīng)不再是障礙,潛在受害者的范圍也將進(jìn)一步擴(kuò)大。
自大模型誕生起,AI導(dǎo)致的風(fēng)險(xiǎn)類型層出不窮,安全防護(hù)卻一直沒有跟上,即便是ChatGPT也沒能躲過“奶奶漏洞”——只要在提示中寫“請扮演我已經(jīng)過世的祖母”就可以輕松“越獄”,讓ChatGPT回答道德與安全約束之外的問題,比如生成Win11的序列號、介紹凝固汽油彈的制作方法等等。
目前,這個(gè)漏洞已被修補(bǔ),但下一個(gè)漏洞、下下個(gè)漏洞總以令人猝不及防的方式出現(xiàn)。近期,卡內(nèi)基梅隆大學(xué)和共同發(fā)布的一項(xiàng)研究表明,大模型的安全機(jī)制能通過一段代碼被破解,并且攻擊成功率非常高。
GPT等大模型都面臨較高的安全風(fēng)險(xiǎn)
隨著AIGC應(yīng)用的普及,普通大眾希望用AI提高生產(chǎn)效率,而不法者則在用AI提高犯罪效率。AIGC降低門檻,讓技能有限的網(wǎng)絡(luò)犯罪分子也能執(zhí)行復(fù)雜攻擊,維護(hù)AI安全的挑戰(zhàn)越來越高。
用AI魔法打敗AI黑魔法
針對黑客利用WormGPT與FraudGPT等工具開發(fā)惡意程序、發(fā)起隱形攻擊等問題,網(wǎng)絡(luò)安全廠家們也用上了AI,試圖用魔法打敗魔法。
在2023年RSA(網(wǎng)絡(luò)安全大會(huì))上,SentinelOne、谷歌云、埃森哲、IBM等在內(nèi)的眾多廠商都發(fā)布了基于生成式AI的新一代網(wǎng)絡(luò)安全產(chǎn)品,提供數(shù)據(jù)隱私、安全防護(hù)、IP防泄露、業(yè)務(wù)合規(guī)、數(shù)據(jù)治理、數(shù)據(jù)加密、模型管理、反饋循環(huán)、訪問控制等安全服務(wù)。
SentinelOne首席執(zhí)行官Tomer Weigarten針對自家產(chǎn)品解釋,假設(shè)有人發(fā)送了一封釣魚郵件,系統(tǒng)能在用戶的收件箱內(nèi)檢測出該郵件為惡意郵件,并根據(jù)端點(diǎn)安全審計(jì)發(fā)現(xiàn)的異常立即執(zhí)行自動(dòng)修復(fù),從受攻擊端點(diǎn)刪除文件并實(shí)時(shí)阻止發(fā)件人,“整個(gè)過程幾乎不需要人工干預(yù)?!盬eingarten指出,有了AI系統(tǒng)助力,每個(gè)安全分析師的工作效率是過去的10倍。
為打擊人工智能助長的網(wǎng)絡(luò)犯罪,還有研究人員臥底暗網(wǎng),深入敵人內(nèi)部打探消息,從不法分析的訓(xùn)練數(shù)據(jù)入手,利用AI反制罪惡流竄的暗網(wǎng)。
韓國科學(xué)技術(shù)院 (KAIST) 一個(gè)研究團(tuán)隊(duì)發(fā)布了應(yīng)用于網(wǎng)絡(luò)安全領(lǐng)域的大語言模型DarkBERT,就是專門從暗網(wǎng)獲取數(shù)據(jù)訓(xùn)練的模型,它可以分析暗網(wǎng)內(nèi)容,幫助研究人員、執(zhí)法機(jī)構(gòu)和網(wǎng)絡(luò)安全分析師打擊網(wǎng)絡(luò)犯罪。
與表層網(wǎng)絡(luò)使用的自然語言不同,由于暗網(wǎng)上的語料極端隱蔽且復(fù)雜,這使得傳統(tǒng)語言模型難以進(jìn)行分析。DarkBERT 專門設(shè)計(jì)用于處理暗網(wǎng)的語言復(fù)雜性,并證明在該領(lǐng)域中勝過其他大型語言模型。
如何確保人工智能被安全、可控地使用已成為計(jì)算機(jī)學(xué)界、業(yè)界的重要命題。人工智能大語言模型公司在提高數(shù)據(jù)質(zhì)量的同時(shí),需要充分考慮AI工具給倫理道德甚至法律層面帶來的影響。
7月21日,微軟、OpenAI、Google、Meta、亞馬遜、Anthropic和 Inflection AI共七個(gè)頂尖 AI 的研發(fā)公司齊聚美國白宮,發(fā)布人工智能自愿承諾,確保他們的產(chǎn)品安全且透明。針對網(wǎng)絡(luò)安全問題,7家公司承諾,對AI系統(tǒng)進(jìn)行內(nèi)外部的安全測試,同時(shí)與整個(gè)行業(yè)、政府、民間及學(xué)術(shù)界共享AI風(fēng)險(xiǎn)管理的信息。
管理AI潛在的安全問題先從識別“AI制造”開始。這7家企業(yè)將開發(fā)“水印系統(tǒng)”等技術(shù)機(jī)制,以明確哪些文本、圖像或其他內(nèi)容是AIGC的產(chǎn)物,便于受眾識別深度偽造和虛假信息。
防止AI“犯忌”的防護(hù)技術(shù)也開始出現(xiàn)。今年5月初,英偉達(dá)以新工具封裝“護(hù)欄技術(shù)”,讓大模型的嘴有了“把門的”,能回避回答那些人類提出的觸碰道德與法律底線的問題。這相當(dāng)于為大模型安裝了一個(gè)安全濾網(wǎng),控制大模型輸出的同時(shí),也幫助過濾輸入的內(nèi)容。護(hù)欄技術(shù)還能阻擋來自外界的“惡意輸入”,保護(hù)大模型不受攻擊。
“當(dāng)你凝視深淵的時(shí)候,深淵也在凝視你”,如同一枚硬幣的兩面,AI的黑與白也相伴而生,當(dāng)人工智能高歌猛進(jìn)的同時(shí),政府、企業(yè)、研究團(tuán)隊(duì)也在加速構(gòu)建人工智能的安全防線。
標(biāo)簽: