AI雙刃劍:網安風險與攻防博弈
面對AI技術爆發式發展,網絡安全正面臨前所未有的挑戰。根據世界經濟論壇 (WEF) 資料顯示,全球網絡攻擊在四年內激增逾倍,單一機構遭受攻擊次數由2021年平均818宗增至今年近2,000宗,形勢頗為嚴峻。阿里雲智能集團雲安全產品線負責人歐陽欣指出:「在這場攻防對抗中,人工智能 (AI) 技術已成為關鍵變數,不僅大幅提升攻擊效率與複雜度,也為防禦體系帶來革新契機。」
當前網絡威脅已滲透至AI技術架構的各層面,從提示詞的輸入及資料外洩,到利用AI驅動的機械人擷取數據及生成深度偽造內容。最新業界報告亦指出,黑客現正運用大型語言模型 (LLM) 設計更具迷惑性的釣魚攻擊、編寫可自我變異的惡意軟件 (Polymorphic malware),並實現大規模自動化方式社交工程攻擊。這種具自我學習、快速演化能力的攻擊模式,已形成超越傳統防禦體系的智能威脅,對現有網絡安全防護提出全新考驗。
AI多層架構的防禦破口
AI系統採取多層架構,每層皆潛藏特定弱點。基礎環境層負責運算、網絡與儲存,風險雖與傳統資訊科技相近,但AI運算規模龐大、架構複雜,讓攻擊更難偵測。模型層為操控源頭,提示詞攻擊、不合規內容生成及資料外洩等風險已列入《OWASP 2025 大規模語言模型應用十大風險》。上下文層所存放的檢索增強生成 (RAG) 資料庫與記憶儲存,已成數據竊取的首要目標。工具與應用層則因應用程式介面 (API) 權限過高或AI代理遭入侵,可能令攻擊者得以掌控整個工作流程。
換言之,隨着攻擊全方位擴張,對智能防禦的需求亦同步急升。應對之道並非放棄AI,而是以AI強化防護能力。因此,完善的安全框架必須覆蓋整個AI生命週期,並聚焦三大核心層面:模型基礎設施、模型本體及AI應用。唯有從業務流程設計階段起深度嵌入安全機制,而非事後補救,企業方能在兼顧效能與使用體驗的同時,構建高效、低延遲的防禦體系。
安全團隊現正部署智能防護機制,可自動掃描提示內容以識別惡意意圖、偵測異常的API行為,並為生成內容加入水印以加強可追溯性。新一代以AI驅動的安全營運採用多代理模型,每日分析數十億宗事件,實時識別新興風險並自動執行初步應對措施。根據羅兵咸永道 (PwC)《2026全球數位信任洞察報告》調查,AI現已成為全球資訊安全總監 (CISO) 的首要投資方向,顯示企業終於開始將網絡防禦視為一個可持續學習的系統,而非固定的檢查清單。
智能防禦新範式
即使企業持續加強防禦,一種主要由內部行為引發的新型風險正於網絡內部逐漸浮現,稱為「影子AI」。在大多數機構中,員工常使用生成式AI工具撰寫報告摘要、編寫程式、或分析客戶數據,惟往往未經正式批准,亦缺乏數據管治。根據Netskope的報告指出,約九成企業現時使用生成式AI應用,而其中逾七成屬於「影子IT」範疇。每個未受監察的提示或未經審核的外掛程式,均可能成為敏感資料外洩的潛在來源。
為AI「繫上安全帶」
各地政府及監管機構已開始意識到此一挑戰的嚴峻性。多項AI監管規範均指向未來的新方向:企業不僅須證明合規,亦需確保持續監察AI系統的運作狀態。安全策略將不再局限於網絡流量或存取紀錄,更須延伸至模型訓練、數據來源及自主代理的行為層面。對眾多機構而言,這意味著安全機制必須自開發階段起深度嵌入流程,採用零信任架構,並將AI模型視為需要長期監察與維護的動態資產。

展望未來,網絡安全的戰線正重新劃定。新一階段的防禦將依賴雙引擎模式,既要保護AI系統,同時運用AI偵測並化解威脅。隨着機器學習模型持續演進,防禦機制亦必須與時並進。傳統的靜態規則與人工應對,已難以匹敵攻擊者在自動化與速度上的優勢。未來所需的,是一個能與威脅同步學習、持續強化的防禦生態系統。這場轉變已然展開。多代理安全平台現正協調每日數以十億計事件的偵測、分流及復原工作。輕量化、特定領域模型負責過濾雜訊,而大型推理模型則能識別過往未見的攻擊模式。這是一條為防禦而生、以智能對抗智能的防線,映照出對手的策略,卻以保護為核心。
邁向智能協同的防御未來
網絡安全的未來格局,取決於人類智慧與機器智能的深度融合。實際而言,這既需要重塑基礎架構,亦需重新培育人才。能準確解讀AI輸出的分析員、具風險意識的數據科學家,以及以透明度建立信任的決策者,皆是不可或缺的關鍵力量。從長遠看,目標不止於強化韌性,更在於重建信心,讓社會相信,驅動現代生活的系統正逐步學會自我防護。
歸根究底,AI技術本身並非對立角色,既能賦能攻擊者,也能為防禦方提供武裝。對全球企業決策者而言,關鍵在於把握轉型時機,以戰略性投入取代被動應對,讓智能化防禦成為網絡安全新時代的核心競爭力。在這場沒有硝煙的數字戰爭中,唯有以智慧驅動防禦創新,方能贏得先機。
作者簡介:阿里雲智能集團雲安全產品線負責人歐陽欣

