News

Google Cloud輕量級AI開放模型Gemma 可於Vertex AI上使用

  •  
  •  
  •  

Google發表全新輕量級開放式模型系列Gemma,連同上周推出的Gemini 1.5 Pro,兩者已開放予Google Cloud用戶在Vertex AI平台上使用,印證Google承諾讓使用Google Cloud的開發人員,可以更開放、更容易使用AI的決心。Google Cloud北亞區董事總經理李孔源指出:「Vertex AI從2023年上半年到下半年的API需求量增長接近6倍,反映了產品的廣泛應用。」

繼上周推出Gemini 1.5 Pro後,Gemma是另一款開放式模型系列,為創新之旅奠下新的里程碑。李孔源表示:「Vertex AI為模型、工具和基礎架構,提供單一整合介面的雲端AI平台,確保用戶使用Gemini和Gemma模型建構應用程式後,可以輕鬆進行部署和維護。」

Google Cloud北亞區董事總經理李孔源

Google上周推出了新一代Gemini模型Gemini 1.5,透過更高效的架構展現更強效能。Gemini 1.5 Pro是首個提供早期測試的Gemini 1.5模型。這款中等規模的多模態模型性能與1.0 Ultra相若,但使用的運算能力較少。Gemini 1.5 Pro現時支援標準的 128,000 符記(Token) 的內容視窗(Context Window),目前供限定開發人員使用;而商業客戶則可試用規模最高可達 100 萬符記的內容窗口。

Gemini 1.5 Pro能在正式生產的環境下支援高達100萬符記,意味著1.5 Pro擁有迄今所有大型基礎模型中最長的內容窗口,標誌著一個新的實驗性功能突破。

Google最新推出輕量級及先進的開放式模型系列Gemma。Gemma採用與Gemini模型相同的研究、技術和基礎架構組件,效能遠超其他同級開放式模型。Google目前正推出兩種不同規模的模型:Gemma 2B和Gemma 7B。每個規模都發布了預先訓練及指令調整版本,以作研究開發之用。

Gemma現時支援Google Cloud開發人員常用的工具,包括Colab和Kaggle Notebooks,以及 JAX、PyTorch、 Keras 3.0和Hugging Face Transformers等框架,而 Gemma 模型亦可以在手提電腦、工作站或Google Cloud上運行。為了帶來領先業界的表現,Google宣布與NVIDIA攜手合作,優化Gemma在NVIDIA GPU上的效能。

開發者可以使用Vertex AI上的Gemma模型執行以下功能:

  • 針對文字生成、撰寫內容摘要和問答等輕量級工作,建構生成式AI應用程式。 
  • 運用自訂的輕量級模型進行探索及實驗,以支援研究與開發工作。 
  • 支援需要低延遲的實時生成式AI應用情景,例如串流文字。  


Google Kubernetes Engine (GKE) 為使用者提供了建立自訂應用程式所需的工具,用作製作簡單的專案原型,或以企業規模推出產品。開發人員現時亦可以直接在GKE上部署Gemma,以建立專屬的生成式 AI 應用程式來建構原型或測試模型功能,當中包括:

  • 在熟悉的工具鏈中,將自訂的微調模型部署在可攜式容器中,並同時執行應用程式
  • 自定模型服務和基礎架構配置,無需提供或維護節點
  • 快速整合 AI 基礎架構,並具有擴展能力,以滿足最嚴苛的訓練和推理設定

李孔源指出:「我們在新一代模型上的持續創新和發展,將有助大眾、開發人員和企業在使用 AI 創作、探索和建構時開啟更多可能性。隨著所有新的基礎模型推出,我們衷心期待更多新世代智慧型應用程式和未來虛擬助理的誕生。」 

供應情況

  • Gemini 1.0 Pro現於Vertex AI和AI Studio正式推出。
  • Gemini 1.0 Ultra現於Vertex AI正式推出,供許可清單上的客戶使用。
  • Gemini 1.5 Pro現於Vertex AI和AI Studio上推出私人預覽版本,支援標準128,000符記內容窗口。於測試期間,早期測試者無需付費即可透過Vertex AI試用100萬符記內容窗口。
  • Gemma現於Vertex AI上開放供Google Cloud客戶使用,並於GKE運作。 

  •  
  •  
  •  

benny

Benny Yeung ~ 企業IT傳媒人,經常四周穿梭科技巨企及論壇,熱愛探討新商機。性格貪玩,但喜歡閱讀沉悶的企業賺蝕數字,最重視辦事效率。