online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 Google推出Android ML平臺,可減少機器學習App大小

摘要: Android裝置端現在內建TensorFlow Lite for Android,因此開發者不再需要於應用程式內添加Runtime,進而減少應用程式大小

 


images/20210723_1_2.jpg

▲來源:ithome.com

為了讓開發者在Android應用程式中,更方便地加入機器學習功能,Google建構了Android機器學習平臺,不只提供最新的推理元件更新,同時也對所有裝置最佳化推理效能,開發者可以跨Android版本使用一致的機器學習推理API。

裝置上機器學習帶來許多優點,不只可以獲得更低的推理延遲,也能以更好的效率使用電力,裝置能夠在沒有連上網路的情況下,繼續使用機器學習功能,但是Google發現,要在裝置上部署機器學習模型,開發團隊通常會遇到數個常見的問題。

第一個問題是應用程式的大小,由於應用程式受容量限制,因此如果必須要綑綁僅用於機器學習功能的函式庫,可能會產生龐大的管理成本,第二個問題則是技術的複雜性,因為裝置上與伺服器上的機器學習技術存在很大的差異,由於計算環境高度異構,導致效能、穩定性和準確性也都有很大的不同。第三則是裝置的支援性,開發人員為了要最大程度覆蓋裝置,因此傾向使用較舊的API,而這限制最新機器學習技術的使用。

為了解決這些問題,Google推出Android機器學習平臺,這是一個可更新且完全整合的機器學習推理堆疊,該平臺提供開發者Android裝置端最新的推理二元檔案,而這將能夠降低APK檔案的大小。

Google也對所有裝置進行效能最佳化,官方提到,他們會最佳化機器學習推理與Android的整合,能根據裝置自動作出效能決策,包括在可用時啟動硬體加速。同時Android機器學習平臺也最大程度降低開發複雜性,其提供跨Android版本一致的API,並且透過Google Play服務提供定期更新,因此更新節奏與Android作業系統發布周期分離。

官方提到,Android機器學習平臺在Android裝置端內建TensorFlow Lite for Android,也就是說,TensorFlow Lite已經可以在所有配備Google Play服務的裝置上使用。如此開發人員就不需要在應用程式中加入Runtime,進而減少應用程式的容量,此外,TensorFlow Lite for Android會使用模型中的元資料,來自動啟用硬體加速,使應用程式可以在每臺Android裝置獲得最佳效能。

自動加速是TensorFlowLite for Android的新功能,該功能供開發者考量效能、準確性和穩定性,創建模型許可名單,這份許可名單能在模型執行的時候,決定開啟硬體加速與否,而為了要使用許可名單,開發者需要提供額外的元資料來驗證正確性。這項功能會在今年稍晚推出。

除了定期更新TensorFlow Lite for Android之外,Google還會更新在作業系統外的Neural Networks API,並且保持各Android版本的API維持相同規範。另外,Google還正與晶片廠合作,在作業系統外,直接向裝置提供最新的硬體驅動程式,這使得開發人員可以大幅減少需要測試的裝置數量,目前高通是Google的第一個合作夥伴。

轉貼自: ithome.com

若喜歡本文,請關注我們的臉書 Please Like our Facebook Page:    Big Data In Finance

 


留下你的回應

以訪客張貼回應

0
  • 找不到回應

YOU MAY BE INTERESTED