SAS:全球對生成式AI信任較傳統AI高200%
數據分析及人工智能解決方案供應商SAS委託IDC進行「IDC Data and AI Impact Report: The Trust Imperative」研究顯示, IT及業務領袖對生成式AI (GenAI) 的信任程度高於其他形式的AI。IDC人工智能及自動化實踐研究總監Kathy Lange表示:「GenAI雖然備受信賴,但是否時刻可信?機構領袖又是否已為這項新興技術建立必要的防護機制及AI管治實務?」

這項全球研究探討AI的使用情況及應用層面,結果顯示,即使優先發展可信賴AI的機構,擁有高達60%機會令其AI項目投資回報率得以倍增,亦只有40%的機構在管治、可解釋性及道德保障等方面投放資源,以建立可信的AI系統。矛盾的是,投入最少資源發展可信賴AI系統的受訪機構認為,GenAI (如ChatGPT) 的可信任度較傳統AI (如機器學習) 高出200%,即使後者是目前最成熟、可靠及具可解釋性的AI形式。

新興AI技術獲最高信任
整體研究結果顯示,相比其他發展更為成熟的AI形式,GenAI及代理式AI (Agentic AI) 等新興技術成為最深受信任的AI應用。近半數受訪者 (48%) 表示對生成式AI「完全信任」,而約三分之一 (33%) 亦對代理式AI持相同看法。最不受信任的AI形式則是傳統AI,僅不到五分之一 (18%) 表示「完全信任」。
即使受訪者對GenAI及代理式AI展現高度信任,他們仍對相關技術表示擔憂,當中包括數據私隱 (62%)、其透明度及具可解釋性 (57%),以及道德應用 (56%) 等問題。
同時,量子AI的信任度亦迅速提升,儘管目前該項技術在大部分應用實例中尚未完全成熟。近三分之一受訪的全球決策者表示對量子AI甚為熟悉,並有26%表示「完全信任」該項技術,即使其實際應用仍處於早期階段。
AI防護機制滯後,削弱影響力及投資回報
研究顯示,AI的使用正急速上升,尤其是GenAI,其在可見度及應用層面上已迅速超越傳統AI (81%對比66%),但同時亦引發新一層的風險及道德疑慮。
IDC研究人員發現,各地區的受訪構信任AI的程度對比該項技術本身的可信任度之間存在落差。根據研究結果,近八成 (78%) 的機構表示「完全信任」AI,但當中只有40%在AI管治、可解釋性及道德保障等方面投放資源,以建立真正可信賴的AI系統
研究亦指出,當機構在操作AI項目時,對實踐可信賴AI措施的重視程度偏低。在受訪者列出的三大組織性優先事項中,僅有2%選擇「制定AI管治框架」,而少於10%表示正在制定「負責任AI政策」。然而,忽視可信賴AI措施的實踐,有可能阻礙這些機構充分釋放AI投資的潛力。
研究團隊將受訪者分為「可信賴AI領導者」及「可信賴AI跟隨者」。領導者在實踐、技術及管治框架方面投入最多資源,以確保其AI系統的可信度,並似乎亦從中開始獲取回報。這些「可信賴AI領導者」在其AI項目中獲得雙倍或以上投資回報的機會,較跟隨者高出1.6倍。

缺乏穩健數據基礎及管治阻礙AI發展
隨著AI系統日益自主,並且深度整合至關鍵業務流程中,數據基礎亦愈趨重要。由於數據的質素、多樣性及管治直接影響AI的結果,制定精明的數據策略對實現AI效益 (如投資回報、生產力提升) 及降低風險至關重要。
研究指出,妨礙AI成功實踐的三大主要障礙包括:數據基礎薄弱、管治機制不足,以及缺乏AI技術專才。近半數 (49%) 受訪機構表示,其主要障礙為欠缺中央化整合的數據基礎或尚未優化的雲端數據環境。其次是缺乏足夠的數據管治流程 (44%),以及機構缺乏具備相關技能的專才 (41%)。
受訪者表示,在AI實踐過程中管理數據的首要問題,來自存取相關數據來源的困難 (58%)。其他主要阻礙包括數據私隱與法規遵循問題 (49%),以及數據質素欠佳 (46%)。
SAS首席科技總監Bryan Harris表示:「為了社會、企業及員工的福祉,建立對AI的信任至關重要。為達成這個目標,AI業界必須提高實踐相關項目的成功率,人類亦需以批判性的態度審視AI結果,而領導層則應賦予員工使用AI的權限。」

