人工智能在不斷發展的同時,其背后算力的消耗也十分驚人。有統計顯示,谷歌公司研發的伯特預訓練語言模型,擁有3.4億個數據參數,而訓練它一次所需的電力足夠一個美國家庭使用50天。
承載了人類未來大夢想、大可能和巨大挑戰的人工智能, 火了這麼些年,取得了長足的發展,與之相輔相成的,是人工智能日益“龐大”的架構體系,諸如常以十億計的計算單位,龐大的雲計算數據中心……越來越“大”是人工智能的現實與未來嗎?
近日《麻省理工科技評論》公布年度十大突破性技術排行榜,微型人工智能技術(Tiny AI)位列其中。從大到小,難道是人工智能正在“返璞歸真”的途中?
不可持續的“大”人工智能
我們都知道,隨著研究人員不斷給算法“喂養”大量數據,機器學習變得越來越聰明,但它們是否也變得更環保呢?答案是否定的。
不可否認,人工智能在過去幾年中取得了許多突破。深度學習是許多人工智能系統實現高精度的突破之一。研究人員發現,雖然人工智能每一天都在變得更加精確,但同時也帶來了隱藏的環境代價。
“當前人工智能攜帶著龐大的數據集被輸入到雲數據中心,然后由無窮無盡的算法進行分析。”威海北洋電氣集團股份有限公司副總工程師秦志亮表示,數據上傳到雲中心的過程,以及通過復雜的算法結構和精巧的訓練方式獲得高精度的算法模型,不僅會產生驚人的碳排放量,而且限制了算法模型的運行與部署速度,同時帶來很多隱私問題。
美國馬薩諸塞大學阿默斯特分校研究人員的一項研究結論對秦志亮的說法提供了佐証。他們通過揭示算法訓練的能量強度發現,訓練一種算法產生的二氧化碳排放量相當於一輛普通汽車終生二氧化碳排放量的5倍,或者相當於飛機在紐約和舊金山之間大約300次的往返飛行。研究人員認為,在尋求人工智能高准確性的過程中,人們似乎失去了對能源效率的關注。
事實上,“大”人工智能也不適合離線和實時決策,比如自動駕駛解決方案,且日益依賴於巨大的能量、巨大的帶寬,這種模式在經濟和生態上同樣具有不可持續性。
另外,更讓研究人員擔心的是,這一趨勢還可能加速人工智能研究集中到少數科技巨頭手中,在學術界或資源較少的國家,資源不足的實驗室根本沒有辦法使用或開發計算成本昂貴的模型。
去中心化或是未來趨勢
人工智能雖已融入大眾生活,但最終的成功還要取決於“落地”,實現大規模商用,這應該是推動微型人工智能發展的直接原因。
“為了實現人類對人工智能遠大的夢想,我們必須從小處著想,甚至很小。雲數據主導的趨勢正在轉變,未來的人工智能環境將是去中心化的。”海南普適智能科技有限公司CEO陳嘯翔說。
海南中智信信息技術有限公司總經理於建港認為,“這是一條與計算機發展相反的路徑,計算機的發展經歷了從個人終端,然后到互聯網化、虛擬化的過程。而微型人工智能是先互聯網化、虛擬化,再終端化。”
以伯特(Bert)為例。伯特是谷歌公司高級研發科學家雅各布·德夫林(Jacob Devlin)和他的團隊開發的預訓練語言模型(PLM),它可以理解單詞和上下文,可以為寫作提出建議或獨立完成的句子。《麻省理工科技評論》報道中稱,伯特擁有3.4億個數據參數。此外,訓練它一次所需的電力足夠一個美國家庭使用50天。
華為研究人員則發表文章稱,他們制作了微型伯特(Tiny Bert)模型,尺寸比伯特縮小7.5倍,速度還快了近10倍。來自谷歌的研究人員也發表文章說,他們已經造出了一個比伯特小了60多倍的版本,但其語言理解能力略差於華為的版本。
華為和谷歌他們是如何做到的?其實,這兩家公司都使用了一種常見的壓縮技術的變體,這種技術被稱為“知識提取”,可以讓想要縮小的大型人工智能模型去訓練其圖像中的小得多的模型,類似於老師訓練學生。
我們可以這樣理解,微型人工智能應是人工智能研究界為縮小算法規模所做的努力。這不僅是減少模型的大小,而且還加快推理速度,保持了高水平的准確性。此外,還可以在邊緣部署小得多的算法,無需將數據發送到雲,而是在設備上進行決策。
三個方面縮小現有模型
微小數據、微小硬件、新型材料、微小算法,微型人工智能是一種綜合方法,涉及數據、硬件和算法的共同開發。
如何在不明顯影響模型准確度的前提下,縮小現有的深度學習模型,秦志亮認為,可以從三個方面著手。一是硬件方面的邊緣端計算,二是算法方面的模型簡化,三是數據方面的小樣本訓練。
無論是新技術還是新理念,大眾的關注點還是其在市場上的普及率,特別是產品量產與應用。
“微型人工智能具體落地場景包括語音助手、數字化妝等,涉及到即時場景理解,邊緣端目標檢測等技術﹔此外,微型人工智能也將使新的應用成為可能,比如基於移動端的醫學影像分析,或對反應時間要求更快的自動駕駛模型的開發。”秦志亮說。
“現在微型算法一般在幾百兆到幾個G,完全可以裝在到手機上。”於建港說,微型人工智能可以應用在所有需要前端控制的應用上,即使5G已加速覆蓋了,網絡時延降低,但是像工控、自動駕駛、航天等需要快速反應的應用,都需要本地部署人工智能算法。他認為,將來的業務形態應該是終端做出簡單快速的反饋,服務器做出重大決策。
在2019年年底的安博會上,已有人工智能初創企業推出“Tiny AI”,該公司將低功耗、小體積的NPU與MCU整合,適配市場上各種主流的2D/3D傳感器,滿足2D/3D圖像、語音等識別需求的AI解決方案受到了業界的關注。此外,英偉達(NVIDIA)和華為等公司,也都陸續推出了終端型圖形處理器,體型較小、功耗較低、功能可以滿足簡單的算法。
技術初期期待寬鬆發展環境
微型人工智能尚處於初期發展階段,該領域的安全、倫理、隱私等問題也同樣引起人們的關注。
秦志亮擔心的問題有兩個。一是算法歧視可能激增。他說,算法歧視之所以難以解決,歸根結底在於算法的可解釋性與訓練數據的不均衡,相比於傳統的雲端訓練,微型人工智能的訓練數據集樣本較少,數據的分布可能更加偏頗。另一個隱患是數據偽造的影響。GAN(Generative Adversarial Network)和深度偽造技術為代表的視頻與圖像技術一直是人工智能算法研究的熱點。隨著這些技術的普及,未來的用戶端極有可能接收或產生大量的虛擬偽造數據。微型人工智能受限於計算力的制約,在分散式網絡架構中,如何有效地甄別這些偽造數據,這很可能是一個隱患。
於建港則認為,微型人工智能會導致分布式人工智能的興起,每個終端都成為一個AI節點,各自都能獨立存活,出現類似區塊鏈的應用。網絡側的控制力度將降低,政府的管控風險加大。不過,技術都是兩面性的,於建港分析,雖然有這些風險,但是對人工智能的管控技術也在發展,應該相信微型人工智能的正面作用,不應該在技術初期就限定太多條條框框。