2025-05-27
AI 偽造身份詐騙激增
Check Point《AI安全報告》揭示企業防禦新挑戰
文: Catabell Lee / 人工智能

正所謂眼見未為真,耳聽未為實,隨著人工智能(AI)迅速普及,愈來愈多網絡犯罪分子利用生成式 AI和大型語言模型(LLM),大規模偽造身份,令網絡用戶無法單憑表像判斷資訊的真偽。有見 AI 安全風險日益浮現,Check Point 近日發表首份聚焦 AI 的安全報告,探討 AI 對企業的潛在威脅,並提出一系列防禦建議與實踐策略。

 

報告指出,儘管 AI 能促進企業自動化和改善決策,但仍須應對資料外洩、深度偽造(Deepfake)、惡意攻擊及監管等挑戰。

 

 

 

全球 51% 企業已應用 AI

 

報告顯示,目前 51% 企業已在營運中採用 AI,包括語言模型、數據分析及自動化流程。不過 AI 應用普及仍存在一定隱憂,其中,46% 的 AI 相關專案可能遭企業否決,主要原因包括模型擴展性不足、數據問題及合規風險。

 

「作為網絡安全防衛者,我們必須確保 AI 模型在投入產品之前對消費來說是安全、可靠及有保障的。然而網絡犯罪分子沒有底線,他們不會受到 HKMA(香港金融管理局)、新加坡金融管理局或其他監理機構約束監管,所以他們一直都有優勢。」Check Point 亞太區及日本資訊安全總監 Jayant Dave 舉例,指北亞及南亞地區對數據保護規範嚴格,企業須確保 AI 的數據輸入與輸出符合當地法律,例如數據到底是儲存於本地抑或海外亦要符合相應規管。

 

此外,部分 AI 模型因無法適應跨區數據環境,例如在香港表現良好的模型,在日本運作有可能失敗,導致企業無法全面應用 AI。

 

 Check Point-Dave

▲Check Point 亞太區及日本資訊安全總監 Jayant Dave 引述報告指 46% AI 專案因模型擴展性不足、數據問題及合規風險等理由而遭否決。

 

 

 

企業須建立信任機制應對 AI 可信度問題

 

報告並探討 AI 信任度(Trustworthy AI)此概念,類似金融機構如何建立客戶信任,例如存款安全、決策透明及金融服務的可靠性。企業應確保 AI 系統具備安全性、可靠性及公正性,避免 AI 模型因數據偏誤而影響決策品質。

 

此外,監管機構正加強對 AI 可信度的監督,例如香港金管局(HKMA)便提出 C-RAF 網絡防禦計劃,確保企業 AI 數據模型符合數據完整性及隱私保護。

 

 

 

AI 驅動惡意攻擊    黑客技術大升級

 

《AI 安全報告》指出,安全威脅背後的核心乃 AI 高度模仿和操控數碼身份的能力,因而模糊了真實與虛假之間的界線。以下是導致信任瓦解的 4 個核心領域:

 

▪️AI 加強身份冒充及社交工程攻擊:犯罪者利用 AI 生成像真度極高的釣魚郵件、虛假音訊和 Deepfake 影片。近期更有犯罪者利用 AI 合成語音,冒充義大利國防部部長的事件;另有案例顯示,受害者遭冒充銀行投資顧問語音詐騙,誤將 1,000 美元匯入虛假保險帳戶,充分說明在網絡世界裏無論是聲音、面容還是文字內容都有機會被偽造。

 

▪️大型語言模型(LLM)數據下毒與虛假訊息傳播:黑客透過操控 AI 訓練數據,引導其輸出有偏差的內容。其中一宗涉及俄羅斯虛假訊息網絡組織「Pravda」的相關案例顯示,AI 聊天機械人有多達 33% 回答內容查為虛假敘事,突顯保護 AI 系統數據真實的重要性。

 

▪️AI 生成惡意軟件與數據探勘:網絡犯罪分子利用 AI 技術生成並改良惡意代碼、將 DDoS 攻擊流程自動化,並竄改被盜數據。一些組織如「Gabbers Shop」,更會透過 AI 提升數據轉售價值與目標精準度。

 

▪️AI 模型的武器化與劫持:從被盜的大型語言模型帳號,到暗網定製的 FraudGPT、WormGPT 等暗黑模型,網絡罪犯正繞過原有的安全機制,將 AI 用作黑客攻擊與詐騙的商業工具。

 

此外,報告亦提到 AI 技術的演進,令 DDoS(分散式阻斷服務)攻擊成本由早年的每小時 100 美元,降至 10 美元或更低,意味著網絡攻擊門檻已大幅降低,企業須儘早提升安全監控能力。

 

 Check Point -Dave_Kev

 

 

AI模型將轉向智能代理

 

報告預測,未來 AI 模型將由大型語言模型轉向智能代理(Agents),即多個 AI 系統共同處理不同任務。以企業防火牆管理或安全運營中心(SOC)為例,可能由 AI 代理負責檢測與修正漏洞,提高防護效率;而風險評估方面,AI 亦可協助銀行、製造業與醫療機構識別潛在安全風險,確保 IT 基礎架構符合最佳安全標準。

 

此外,報告強調企業在部署 AI 時,須評估營運成本與潛在風險,特別是舊有 IT 基礎設施可能導致漏洞擴大與更新(Patching)成本上升,致使 AI 帶來額外負擔。

 

 

 

企業安全防禦建議

 

Dave 指出,網絡安全人員應假設犯罪分子已普遍將 AI 融入攻擊手段。為應對挑戰,機構應採用具備 AI 感知能力的網絡安全框架,包括:

 

▪️零信任(Zero Trust)架構:限制 AI 系統存取關鍵數據,避免未授權的 AI 代理存取機密資訊。

 

▪️AI 輔助偵測與威脅狩獵:利用 AI 識別由 AI 生成的攻擊內容,如偽造郵件、深度合成影片等。

 

▪️強化身份驗證機制:加強身份驗證,採取超越傳統的安全策略,實施多重身份驗證,以應對文字、音訊和影片中由 AI 驅動的身份冒充,警惕數碼身份不一定可信。

 

▪️結合 AI 情景感知的威脅情報:為網絡安全團隊配備具 AI 感知能力的分析工具,加強團隊對新型攻擊手段的識別與回應能力。

 

▪️AI 程式碼安全測試:確保 AI 程式開發符合安全編碼標準,減少因開發過程忽略安全性而導致的漏洞。

 

▪️模型驗證與威脅評估:透過威脅建模(Threat Modeling)分析 AI 模型的可能風險,在投入生產前修正漏洞。

 

此外,報告指出,供應鏈攻擊不僅影響 AI 發展,更可能導致企業災難性成本上升。當 AI 模型遭入侵,企業的恢復成本將遠高於 AI 的運營效益,顯示 AI 安全策略應成為企業決策核心。

 

Check Point -Kev

▲大中華區技術總監侯嘉俊(Kev)指網絡安全專才需求持續上升,認為 AI 未能完全取代人類專家。

 

不過就 AI 未來會否在網絡安全領域完全取代人類,大中華區技術總監侯嘉俊(Kev)則相對樂觀:「其實網絡保安不僅倚靠科技,有許多組成部分我們都需要考慮,譬如說 Risk Management(風險管理),風險在哪裏?企業需要制定很多政策和程序,確保能夠掌控企業數據、管理用戶應用的 Apps 或資源、培訓用戶的網絡保安意識。舉例說,現時許多機構開始做 Phishing Simulation(模擬網絡釣魚),好讓員工和用戶意識到網絡釣魚攻擊是怎麼回事,或者當發生網絡保安事故時,如何能有效地作出反應。」

 

他續引述報告指出,隨著 AI 迅速發展,網絡安全專才需求持續上升,預計未來將需要更多網絡防禦專家。

 

同時,侯嘉俊亦強調單靠基於雲端的解決方案,已不足應付由 AI 驅動的惡意攻擊。為此,Check Point 宣佈與 Nvidia 合作,強化 AI 技術的半導體運算層、雲運算層及應用層,確保 AI 在網絡安全防禦方面發揮最大效能。

 

Check Point 亦鼓勵機構採用混合式網狀架構。侯嘉俊形容,一個多元、適應力強的框架,可讓機構更靈活準確地保障企業網絡安全。相對將所有流量引至雲端,混合式網狀架構讓機構能夠斷定不同場景的最佳檢查點,從而在適當時候利用雲端的強大效能,亦能同時保護本地環境流量,以確保最佳的效能、成本效益,以及最為重要的保障。