Google發布最新AI驅動網絡防禦技術 深化與社聯合作
本港網絡騙案威脅日趨頻繁,在過去12個月,每名受害者平均損失近6,800港元。或有不法分子企圖利用人工智能 (AI) 技術作案,Google相信AI不僅能幫助應對這些威脅,更是進一步推動網絡安全防禦戰略的有效及重要工具。除了不斷增強AI驅動的防禦,Google香港近日宣布擴展與香港社會服務聯會 (社聯) 合作,助社福界安全及負責任地運用科技創新。
Google香港銷售及營運總經理余名德表示:「保護用戶與生態系統夥伴安全一直是Google的首要任務。我們相信AI是網絡防禦的強大工具,助我們持續積極採取行動:從具規模地不斷提升我們產品和服務的安全性,到支持合作夥伴安全地創新,並推動全球和本地合作,包括在香港與社聯攜手提升業界的網絡安全意識和防禦能力。」

調查:逾四成港人每週甚至每日遇網絡詐騙
一項業界調查顯示,超過四分之三(77%)受訪香港成年人在過去12個月內曾遇到一次或多次網絡詐騙,其中部分人更頻繁至每週多次(25%)甚至每日(19%)遇到。不法分子最常用以接觸市民的渠道是電話(59%),其次是文字或短訊(54%)。
近三分之二(66%)受訪者表示在過去12個月曾遭遇網絡詐騙陷阱,其中投資詐騙(54%)和意外之財騙案(54%)是最常見的詐騙類型。13%受訪者表示在過去12個月內因網絡詐騙而蒙受金錢損失,每人平均損失6,798港元。調查亦指出,近五分之一(19%)受害者表示,其受騙主因在於詐騙「非常逼真/可信」。
Google如何應對網絡詐騙威脅
為協助避免用戶經電話和文字或短訊遇到詐騙,除了來電顯示與騷擾/廣告來電阻擋功能及通話防護功能(In-call Protections)等現有保護功能以外,Google最近在Google訊息中推出了兩項新保護功能,進一步加強保護用戶:
- 「安全連結」(Safer links):當用戶點擊訊息中任何可疑連結時會發出警告,並阻止他們瀏覽潛在的有害網站,除非他們明確將該訊息標記為「不是垃圾訊息」。
- 「金鑰驗證」(Key Verifier): 用戶可透過掃描受信任聯絡人裝置上的二維碼,為端對端加密訊息提供額外的安全保證,確保正在與正確的對象通訊。
與此同時,Google 在各產品、服務及平台上所設立的多層防禦機制,亦有舉措針對日益增加的特定詐騙手法或類別,例如:
- 針對金融詐騙:Google於2024年底在香港開始試行Google Play Protect 「強化防詐騙安全防護」功能。該功能會在用戶嘗試從網路側載來源(如網頁瀏覽器、即時通訊應用程式或檔案管理程式)安裝應用程式時進行分析。若發現該應用程式可能會存取到常被濫用於金融詐騙的敏感權限,功能就會自動阻止其安裝。「強化防詐騙安全防護」功能本港全面推出不到三個月,已在本地保護逾18萬部裝置,堵截64萬次高風險安裝嘗試,當中涉及超過2萬個不同的應用程式。
- 針對利用AI偽冒公眾人物的廣告:Google已組建了一支逾百名專家組成專責團隊,分析這些詐騙手法並制定有效對策,包括修訂《不實陳述或行為》政策,以暫停那些宣傳此類詐騙的廣告商帳戶。結果,Google 成功永久暫停逾70萬個違規廣告商帳戶,令該類詐騙廣告的舉報數量於2024年大幅下降九成。此外,Google 為相關大型語言模型 (LLM) 推出了超過50項強化措施,以更有效、更精準且具規模地執行政策,阻止了數十億條違反政策的廣告接觸到消費者。
Google深化與社聯合作 提升網絡安全意識
Google 持續與香港各界合作,包括參與本地金融監管機構《保障消費者防詐騙約章 3.0》,及持續與社聯合作,支援非政府組織和社會企業,以共同打擊網絡詐騙和欺詐行為。
今年,Google 與社聯已共同培訓了超過 400 名社福機構人員,內容涵蓋網絡安全和負責任 AI 的應用,受惠人數為去年的 1.5 倍。作為培訓範圍的擴展部分,部分社福機構代表更參與了試行工作坊,為其機構更深入探索不同 AI 應用方案的可行性,並展開內部試行。

香港社會服務聯會總監 (善用科技) 何美儀女士表示:「隨著AI在職場上的應用日益普及,如何安全且負責任地運用AI,讓之發揮最大作用,是社福界目前的挑戰。社福機構需採用具系統性、企業級的方式部署AI應用,以應對合規、資源有限等難題。我們很高興進一步深化與Google的合作,不但為業界提供了網絡安全及負責任AI培訓,更擴展至Google AI應用場景的探索與試行,有效回應了行業的實際需求。」
作為合作的一部分,社聯在「社創及科技研討會2025」上宣布利用Google AI模型開發了一款名為「SocSmart」的AI聊天機器人。「SocSmart」以與社福界日常工作最為相關的政策及手冊作訓練,例如個人資料私隱專員公署的《人工智能:個人資料保障模範框架》,旨在為社福機構及人員提供一個安全可靠的平台,以便在需要時快速掌握政策詳情和更新。「SocSmart」預計於2025年11月底推出測試版。

Google守護全球AI前沿
Google 一直致力應對AI用戶所面臨不斷演變的新威脅。以「間接提示詞注入」(indirect prompt injections)為例,Google透過訓練AI模型從根本上抵禦此類威脅,並配合「紅隊」專家團隊(Human Red Teams)持續測試AI模型的防禦機制,在不法分子企圖利用漏洞作案之前發現並進行修復。而今年10月全新推出的舉措包括:
- CodeMender:一個AI驅動的代理(agent),利用Google AI模型的先進推理能力,自動調試和修復關鍵的程式碼漏洞。在過去六個月的開發過程中,CodeMender 已向開源項目提交了72個安全修復方案,其中一些項目規模高達 450 萬行程式碼。
- AI漏洞獎勵計劃(AI Vulnerability Reward Program,簡稱 AI VRP):由 Google現有VRP拓展而出;現有 VRP至今已就AI相關問題發放超過43萬美元獎勵。這個專門為AI而新設的VRP闡明了AI相關的問題範圍,簡化了報告流程,以進一步鼓勵研究人員找出及報告關鍵的安全漏洞。
- 安全 AI 框架 2.0(Secure AI Framework。簡稱 SAIF 2.0):拓展了現有經實證的安全框架,並增加了有關代理安全風險及其緩解措施的新指引。
分享實用貼士 安全及負責任地應用 AI
AI日漸融入各種日常生活和工作工具。無論是何種科技,在善用新技術的過程中總會遇到挑戰和需要考量的地方,才能發揮其最大效益。Google分享以下建議,助機構和個人在部署AI及評估AI的回應:
機構部署AI時可考慮:
- 評估 AI 系統在每次互動中的公平性,因為底層模型可能經常變化。
- 注意潛在的 AI 偏見。
- 提倡評估 AI 產品和解決方案的團隊應具包容性。
- 倡導 AI 應具更高的透明度和問責制。
個人可按「AAA」框架評估 AI回應:
- 準確性(Accuracy):評估其陳述是否能以可靠來源作驗證,而其邏輯和推理是否合理。
- 一致性(Alignment):審視回應是否直接回答問題、切合主題,並有效地推進對話。
- 合適性(Appropriateness):考慮回應內容及用語是否與該情境相符及合適。
此外,用戶可視情況提出追問或重述問題,以反覆檢驗(double-check)內容的一致性,並應將特定AI聊天機器人的局限性及訓練數據納入考量。
適逢「網絡安全意識月」,Google 分享實用貼士,助人人時刻安心上網:
- 僅透過官方且信譽良好的平台或經核實的網站進行捐款和購物。
- 務必透過公司的官方網站獲取資訊。仔細檢查網站是否有細微的拼寫錯誤、奇怪的格式、不尋常的字體或隨機的表情符號等——這些都可能是虛假網站的警號。
- 對任何承諾保證或極高回報而風險很低或沒有風險的投資保持懷疑。如果聽起來好得難以置信,那很可能就是假的。
- 點擊搜尋結果或圖片旁的「三點圖示」,分別查看「關於此結果」和「關於此圖片」的功能,以深入了解資訊來源。
