
ChatGPT如何推動網(wǎng)絡(luò)犯罪“大眾化”
聲明:該文章來自(D1Net)版權(quán)由原作者所有,K2OS渲染引擎提供網(wǎng)頁加速服務。
自O(shè)penAI于11月底推出ChatGPT以來,各方的評論人士都在擔心人工智能驅(qū)動的內(nèi)容創(chuàng)作將產(chǎn)生的深遠影響,尤其是在網(wǎng)絡(luò)安全領(lǐng)域。事實上,許多研究人員擔心生成式人工智能解決方案將使網(wǎng)絡(luò)犯罪大眾化。
雖然安全團隊也可以將ChatGPT用于防御目的,例如測試代碼,但其降低了網(wǎng)絡(luò)攻擊的進入壁壘/門檻,這無疑會進一步加劇威脅形勢的復雜程度。
網(wǎng)絡(luò)犯罪的“大眾化”
從網(wǎng)絡(luò)安全的角度來看,ChatGPT的誕生所帶來的主要挑戰(zhàn)是,任何人——無論其技術(shù)程度如何——都可以根據(jù)需要編寫代碼來生成惡意軟件和勒索軟件。
Tanium端點安全專家Matt Psencik表示,“正如ChatGPT可以用于幫助開發(fā)人員編寫代碼一樣,它也可以(并且已經(jīng))被用于惡意目的。我們已經(jīng)發(fā)現(xiàn)的幾個例子是,要求機器人創(chuàng)建令人信服的網(wǎng)絡(luò)釣魚電子郵件,或協(xié)助逆向工程代碼以找到可能被惡意使用的零日漏洞,而不是將它們報告給相關(guān)供應商?!?/p>
不過,Psencik指出,ChatGPT確實有內(nèi)置防護機制,旨在防止該解決方案被用于犯罪活動。例如,它將拒絕創(chuàng)建shell代碼或提供關(guān)于如何創(chuàng)建shell代碼及逆向shell的具體說明,并標記惡意關(guān)鍵字,如網(wǎng)絡(luò)釣魚,以阻止請求。
但是,這些保護措施的問題在于,它們依賴于人工智能來識別用戶試圖編寫惡意代碼的企圖,就這一點而言,用戶可以通過重新措辭查詢來混淆識別。
如何使用ChatGPT創(chuàng)建勒索軟件和釣魚郵件
雖然ChatGPT發(fā)布時間不長,但安全研究人員已經(jīng)開始測試它生成惡意代碼的能力。例如,Picus Security的安全研究員和聯(lián)合創(chuàng)始人Suleyman Ozarslan博士最近不僅使用ChatGPT創(chuàng)建了網(wǎng)絡(luò)釣魚活動,還為MacOS創(chuàng)建了勒索軟件。
Ozarslan介紹稱,“我們從一個簡單的練習開始,看看ChatGPT是否能創(chuàng)建一個可信的網(wǎng)絡(luò)釣魚活動,結(jié)果證明確實如此。我輸入了一個提示,要求其寫一封世界杯主題的電子郵件,用于網(wǎng)絡(luò)釣魚模擬,結(jié)果它在短短幾秒鐘內(nèi)就用完美的英文創(chuàng)建完成了一封。”
在這個例子中,Ozarslan聲稱自己是一家攻擊模擬公司的安全研究員,希望開發(fā)一個網(wǎng)絡(luò)釣魚攻擊模擬工具,便“說服”AI生成了一封網(wǎng)絡(luò)釣魚電子郵件。
雖然ChatGPT意識到“釣魚攻擊可以用于惡意目的,并可能對個人和企業(yè)造成傷害”,但它仍然生成了這封電子郵件。
完成初次嘗試后,Ozarslan又要求ChatGPT為Swift編寫代碼,Swift可以找到MacBook上的微軟Office文件,并通過HTTPS將其發(fā)送到網(wǎng)絡(luò)服務器,然后對MacBook上的Office文件進行加密。該解決方案的響應是生成示例代碼,而沒有提供任何警告或提示。
Ozarslan的研究實踐表明,網(wǎng)絡(luò)犯罪分子可以很輕松地繞過OpenAI的保護機制,要么把自身偽裝為研究人員,要么混淆他們的惡意意圖。
網(wǎng)絡(luò)犯罪的上升使天平失衡
雖然ChatGPT確實為安全團隊帶來了積極的好處,但通過降低網(wǎng)絡(luò)犯罪分子的進入門檻,它有可能加速(而非減少)威脅環(huán)境的復雜性。
例如,網(wǎng)絡(luò)犯罪分子可以利用人工智能來增加在野網(wǎng)絡(luò)釣魚威脅的數(shù)量,這不僅會進一步加劇安全團隊的負擔,而且只需成功一次就可能引發(fā)大規(guī)模數(shù)據(jù)泄露,造成數(shù)百萬美元的經(jīng)濟損失和無法挽回的聲譽損失。
電子郵件安全提供商IRONSCALES的研發(fā)副總裁Lomy Ovadia表示,“在網(wǎng)絡(luò)安全方面,ChatGPT可以為攻擊者提供比目標更多的東西。對于商業(yè)電子郵件妥協(xié)(BEC)來說尤為如此,因為這種攻擊依賴于使用欺騙性內(nèi)容來冒充同事、公司VIP、供應商甚至客戶?!?/p>
Ovadia認為,如果CISO和安全領(lǐng)導者依靠基于策略的安全工具來檢測AI/GPT-3生成內(nèi)容的釣魚攻擊,那么他們將注定失敗,因為這些AI模型使用先進的自然語言處理(NLP)來生成幾乎不可能與真實例子區(qū)分開來的詐騙電子郵件。
例如,今年早些時候,新加坡政府技術(shù)機構(gòu)的安全研究人員創(chuàng)建了200份釣魚郵件,并將其點擊率與深度學習模型GPT-3創(chuàng)建的郵件進行了比較,結(jié)果發(fā)現(xiàn)更多的用戶點擊了人工智能生成的釣魚郵件,而非人類用戶生成的郵件。
好消息是什么?
雖然生成式AI確實給安全團隊帶來了新的威脅,但它也提供了一些積極的用例。例如,分析人員可以使用該工具在部署前審查有漏洞的開源代碼。
HackerOne公司解決方案架構(gòu)師Dane Sherrets表示,“今天,我們看到很多道德黑客正在使用現(xiàn)有的人工智能技術(shù)來幫助編寫漏洞報告,生成代碼樣本,并識別大型數(shù)據(jù)集的趨勢。這一切都表明,今天人工智能最好的應用是幫助人類做更多造福人類的事情。”
然而,試圖利用生成式人工智能解決方案(如ChatGPT)的安全團隊仍然需要確保充分的人力監(jiān)督,以避免潛在的問題。
Sherrets補充道,“ChatGPT所代表的進步令人興奮,但技術(shù)還沒有發(fā)展到完全自主運行的程度。要讓人工智能發(fā)揮積極作用,還需要人力監(jiān)督以及進行一些手動配置,不能總是依靠絕對最新的數(shù)據(jù)和情報來運行和訓練。”
正是出于這個原因,F(xiàn)orrester建議實現(xiàn)生成式人工智能的企業(yè)應該部署工作流和治理,來管理人工智能生成的內(nèi)容和軟件,以確保其準確性,并降低發(fā)布具有安全性或性能問題的解決方案的可能性。
不可避免的是,生成式AI和ChatGPT的真正風險將取決于安全團隊或威脅行為者是否在AI攻防大戰(zhàn)中更有效地利用自動化。
[超站]友情鏈接:
四季很好,只要有你,文娛排行榜:https://www.yaopaiming.com/
關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級服務市場:https://www.ijiandao.com/
- 1 習近平接見新疆各族各界代表 7904874
- 2 樺加沙風眼內(nèi)部曝光 拍攝部門:震撼 7809512
- 3 飛機狂風中降落 機翼險些砸地 7714566
- 4 援疆的山海深情 跨越千里萬里 7618920
- 5 馬克龍被美警察攔下 當場打給特朗普 7521286
- 6 臺風“樺加沙”影響有多大?解讀來了 7426292
- 7 盒馬最難吃甜品被臺風選出來了 7329641
- 8 深圳機場飛機被“五花大綁”防臺風 7233676
- 9 上海再通報多校午餐發(fā)臭:涉嫌瞞報 7143982
- 10 醫(yī)院通報“CT報告單現(xiàn)不文明用語” 7043449