AWS宣布開源推Neo-AI 加入AI及雲端競賽

AWS宣布推出Neo-AI項目,這是Apache軟件許可下的一個新的開源項目,採用了AWS為其SageMaker Neo 機器學習服務開發和使用的一些技術,並將它們開放到開源生態系統當中。

SageMaker Neo在AWS re:Invent被首次推出,其目的是幫助開發人員針對目標硬件平台優化經過培訓的機器學習模型,在AWS環境中,SageMaker Neo主要在邊緣運行。

眾所周知,對於邊緣設備而言,其機器學習模型優化往往受到計算能力和存儲的限制,因為距離雲計算中心實在太遠,而只能採取開發人員手動調整的方式。而Neo-AI就是為了解決這個問題而來。

更基礎點看,機器學習具有改變應用程序開發的巨大潛力,是多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法複雜度理論等多門學科,但其對專業知識的要求,只有少數公司能夠承擔得起。AWS算得上是其中之一。Tom Mitchell的機器學習(1997)對信息論中的一些概念有詳細的解釋,其中定義機器學習時提到,「機器學習是對能通過經驗自動改進的計算機算法的研究」。(Machine Learning is the study of computer algorithms that improve automatically through experience.)

ARM、Intel和NVIDIA支持Neo-AI

回到Neo-AI,其可以採用以下這些模型對機器學習進行優化:

  • 框架和算法:TensorFlow、Apache MXNet、PyTorch、ONNX和XGBoost。
  • 硬件架構:ARM、英特爾和NVIDIA從今天開始支持,即將推出對Cadence、高通和Xilinx硬件的支持。AWS介紹,除了NVIDIA外,所有這些公司都將為該項目做出貢獻。

此外,Amazon SageMaker Neo作為Apache軟件許可下的開源代碼發佈,使硬件供應商能夠為其處理器和設備定製它。

推出這個Neo-AI項目的好處在哪?AWS也給出了一些回答,這有3個主要好處

  • 轉換模型的速度最高可達2倍,而且不會降低精度。
  • 現在,複雜的模型幾乎可以在任何資源有限的設備上運行,解鎖自動駕駛汽車、安全設備和製造中的異常檢測等創新用例。
  • 開發人員可以在目標硬件上運行模型,而不依賴於框架。

Neo-AI運行時佔用的空間並不大,僅需1M的磁盤空間(流行的深度學習庫所需的是500M-1GB),另外,Neo-AI主要在Amazon SageMaker Neo運行時運行。

Intel人工智能產品部總經理Naveen Rao表示,為了從人工智能中獲得價值,人們必須確保深度學習模型可以像在邊緣設備上一樣輕鬆地部署在數據中心和雲中。 據悉,目前AWS正在加快推出C ++和Rust版本的開源工具,並且還與合作夥伴合作提供更多開源版本,包括:Erlang(Alert Logic)、Elixir(Alert Logic)、Cobol(Blu Age)、N | Solid(NodeSource)和PHP(Stackery)。

Chris

Chris

Chris Wong,主修新聞傳理,曾任職調查公司,細心發掘數據及真相,所有事情皆由微小因素所連繫。