News

Omdia:生成式AI難以溯源 出現私隱與偏見問題

  •  
  •  
  •  

儘管大眾對ChatGPT、Stable Diffusion和其他生成式AI帶來科技創新的鼓舞,以及其中蘊含的潛在機會,但生成式AI無法解決任何其他類型的AI面臨的市場挑戰。Omdia在最新報告中指出,生成式AI並非萬能。

欠缺一致性和可解釋性

Omdia首席分析師Mark Beccue指出:「生成式AI無法從根本上解決AI面臨的挑戰——偏見、隱私、責任、一致性和可解釋性 (Interpretability),事實上,生成式AI在很大程度上加劇了這些問題。」舉例來說,作為大多數生成式AI輸出來源的大型語言模型 (LLM) 是根據公共資料所訓練,這些資料可能包括有害語言或種族、性別、性取向、能力、語言、文化等方面的偏見內容,這意味著輸出本身可能就有偏見或不當內容。另一個例子是,生成式AI輸出不易解釋。與大多數深度學習AI一樣,其產出之結果難以溯源。雖然可解釋性是所有AI的挑戰,但對於生成式AI輸出,這項挑戰更為艱鉅。因為根據定義,生成式AI所產出的內容是被「創造」出來的。 

Omdia首席分析師Mark Beccue

2023年將是生成式AI的早期市場階段。Omdia預測,針對生成式AI的使用將在今年將湧現大量的創造性革新,然而,對於生成式AI的定義及其作用也會產生相對的疑惑。Omdia同時指出其他塑造生成式AI發展軌跡的市場趨勢,包括建構LLM並從中獲利以及雲端運算供應商發揮的關鍵作用等。Omdia在《2023年生成式AI市場格局》探討以上及其他更多方面的議題。


  •  
  •  
  •  

benny

Benny Yeung ~ 企業IT傳媒人,經常四周穿梭科技巨企及論壇,熱愛探討新商機。性格貪玩,但喜歡閱讀沉悶的企業賺蝕數字,最重視辦事效率。