<bdo id="ks4iu"><del id="ks4iu"></del></bdo>
  • 
    <pre id="ks4iu"></pre>
  • <bdo id="ks4iu"><del id="ks4iu"></del></bdo>
    <input id="ks4iu"><em id="ks4iu"></em></input>
    
    
  • <center id="ks4iu"><cite id="ks4iu"></cite></center>
  • 首頁 > 空調 >

    把大模型裝進手機,分幾步?

    文|光錐智能 姚悅

    編輯|王一粟

    大模型“跑”進手機,AI的戰火已經從“云端”燒至“移動終端”。


    (相關資料圖)

    “進入AI時代,華為盤古大模型將會來助力鴻蒙生態。”8月4日,華為常務董事、終端BG CEO、智能汽車解決方案BU CEO 余承東介紹,通過盤古大模型的底層技術,Harmony OS帶來了下一代智能終端操作系統。

    在手機上使用大模型早已不是新鮮事,此前ChatGPT、文心一言、妙鴨等APP、小程序都是通過調用云端算力,滿足手機終端AI應用的需求。

    下一步,則是讓大模型直接運行在手機上。

    從今年四、五月開始,美國科技三巨頭——高通、微軟、英偉達,最受矚目的AI新星OpenAI,以及國內AI“頭部戰隊”的騰訊、百度等,都已經紛紛加速推進在移動終端的輕量化部署AI大模型。高通甚至宣布,正在逐漸轉型成一家智能邊緣計算(在移動終端等數據源頭提供計算服務)的公司。

    巨頭的群力強推下,大模型從云到端邁進的產業趨勢已經十分明確。

    大模型為什么,要“跑”在手機上?

    大模型的最大特點就是“大”,動輒百億千億甚至萬億參數,且為了更好運行大模型,算力集群都已經升級到“萬卡”級別。如今,為什么又非要把大模型“塞”進巴掌大的小手機?

    大模型確實會給手機用戶帶來一些體驗上的提升。例如,華為終端智能助手小藝不僅可以根據語音提示推薦餐廳,還可以進行摘要總結、信息檢索、多語種翻譯等信息處理,數千字的英文長文,具備大模型能力的手機智能助手就可以生成摘要,還可以翻譯成中文。尤其后一點,在信息爆炸時代,對于提高學習工作效率還是很有價值的。

    華為終端BG AI與智能全場景業務部總裁賈永利解釋,一方面,大語言模型具備泛化能力,能夠幫助手機智能助手提升理解能力。另一方面,大模型Plug-in的插件能力,可以在手機內部打通各應用之間的壁壘,借助工具拓展能力。

    此外,ChatGPT等AIGC應用一直以來都伴隨著強烈的隱私安全爭議,但如果完全在端側運行,就能夠完全避免這一問題。因為大模型在端側運行,數據也不會離開端側。而且,這樣響應的速度還會更快。

    另一邊,大模型對于到手機等移動終端的需求也已經非常迫切。

    大模型的洶涌之勢讓云端越來越無法獨自承載算力的需求。高通高級副總裁Alex Katouzian近期就直言,“隨著連接設備和數據流量加速增長,疊加數據中心成本攀升,(我們)不可能將所有內容都發送到云端。”

    不算數據傳輸要消耗網絡帶寬、存儲,以及硬件等大量資源,光是云端算力現在已經讓相關廠商有些吃不消。ChatGPT僅在推理階段,保守估計每個月算力成本在1000萬美元左右。

    最大的問題還不是“貴”,而是“缺”。

    此前,就連OpenAI創始人Sam Altaman都自曝GPU很缺,甚至直言不希望太多人用ChatGPT。近期,也有業內人士推測,小型和大型云提供商的大規模H100集群容量即將耗盡,H100的需求趨勢至少會持續到2024年底。當前英偉達H100的產能還嚴重受制于供應鏈。

    所以,云端和終端形成配合,手機等終端閑置算力資源被利用起來,解決“集中式”算力與“分布式”需求的錯配,已經成為大模型發展“降本增效”的確定趨勢。更重要的是,相比數量有限的中心節點,眾多的移動終端堪稱觸及萬千場景的“毛細血管”,也就決定了這一入口會是大模型加速應用滲透的關鍵。

    如何把大模型“裝進口袋”?

    “相比傳統的PC或者服務器,移動終端最大的挑戰就是如何平衡好體驗和能耗,這是鴻蒙內核設計最重要的核心點之一。”華為終端業務軟件部總裁龔體強調。

    大模型需要大量的計算資源和存儲資源,尤其是基于現有的手機硬件配置,這就需要軟件系統做好協調,提升效率降低能耗。

    現在手機為了提高性能,至少是8個芯片內核,就需要手機系統做協同,這個過程就會消耗大量算力。如果采用異構資源調度,就可以高效協調CPU、GPU、NPU。龔體表示,這樣調度效率可以提升60%以上。

    手機系統能夠進行運算,調度的最小單位叫做線程,傳統的操作系統中往往上萬線程同時運行,其中就會存在大量無效線程。針對這點,就可以通過更輕量的并發模型來處理并發操作,降低無效線程切換對算力的消耗。據龔體說,并發模型可以讓任務切換開銷節省50%。

    另外,在操作系統的任務調度方面,這也是影響流暢體驗的最基本要素,相比公平調度,動態優先級調度會很大程度降低能耗。動態優先級調度就類似于一個智能交通系統,可以根據道路狀況和交通流量,動態調整交通信號燈亮起狀態,如當某個方向的車流增加時,該方向的信號燈就提前變綠,就會減少擁堵和延遲。

    不過,要想讓大模型部署到手機上,還能運轉起來,光是手機操作系統升級改進還遠遠不夠。

    隨著大模型預測越來越準確,網絡越來越深,神經網絡消耗的內存容量已成為核心問題。同時,還涉及內存帶寬的問題,網路運行時,內存、CPU和電池都會飛速消耗,這絕對是現在的手機難以承受之重。

    因此,在部署到手機之前,就必須對大模型進行壓縮,以降低對推理算力的需求。但是,一定要確保原有性能和精度基本不變。

    量化就是一種常見且重要的壓縮操作,可以減少模型占用的內存空間,提高推理性能。本質上就是將浮點運算模型轉化為整數運算模型,因為整數運算比浮點運算精度更高,運算速度也更快。

    當前,量化技術也已經在加速突破。服務器上訓練的模型一般采用32位浮點運算(FP32),在手機端,高通已經將FP32模型量化壓縮到INT4模型,實現64內存和計算能效提升。高通的實現數據表明,在借助高通的量化感知訓練后,不少AIGC模型可以量化至INT4模型,與INT8相比,性能提升約90%,能效提升大約60%。

    大模型壓縮技術,無疑是AI巨頭制勝移動終端戰場的關鍵因素。這也在一定程度上,解釋了英偉達在今年2月為什么“悄悄”收購了掌握壓縮大模型技術的人工智能初創公司OmniML。

    大模型倒逼終端硬件升級

    “本年度我們將能夠支持參數達100億的生成式AI模型在手機上運行。”高通產品管理高級副總裁兼AI負責人Ziad Asghar近期則對外表示,100億-150億參數的模型可以覆蓋絕大多數AIGC用例。如果終端已經可以支持這一參數級別,運算可全部在終端上進行,手機會成為真正的個人助理。

    但是,當前新一代旗艦版手機芯片也就可以承載運行10億參數級大模型,高通在今年6月計算機視覺學術頂會 CVPR 上,成功演示的跑在安卓系統上的大模型,也不過15億參數。

    參數躍升幾乎十倍,奔赴移動終端的大模型已踩下“油門”,那手機也就不得不加速升級才能應對。

    手機硬件亟需在AI加速器和內存進行革新。

    首先,更大參數的大模型,需要更大的內存和存儲空間來存儲模型參數和中間結果。這就要求移動終端內存芯片容量,以及內存接口帶寬都進行升級。

    其次,更大的參數勢必需要更強大的計算和推理能力,處理輸入數據和輸出結果。

    雖然,目前手機芯片上的AI加速器(例如各種NPU IP)幾乎已經是標配,但設計基本上是針對上一代卷積神經網絡設計,并不完全針對大模型。

    為了適配大模型,AI加速器必須能有更大的內存訪問帶寬,并減少內存訪問延遲。這就需要AI加速器的接口上做出一些改變(例如分配更多的pin給內存接口),同時也需要片上數據互聯做出相應的改變,來滿足AI加速器訪存的需求。

    高通能喊出“年內100億參數跑手機”的重要原因之一,就是其手握搭載了高通史上最快速、最先進的AI引擎的第二代驍龍8處理器,相比第一代驍龍8處理器,AI性能提升了4.35倍,能效提升60%。

    當然,超大規模參數大模型的訓練和推理,即便在云端也亟待突破五堵墻:內存墻+算力墻+通信墻+調優墻+部署墻,手機更得一層一層去突破。

    不過,從“智能”到“人工智能”,對于手機來說,機遇大于挑戰。

    “創新周期對電子消費品的影響更為重要,甚至可以帶領一個產業走出經濟周期的影響。”榮耀終端CEO趙明判斷,當前智能手機行業就處在一個AI、5G+開啟的新一輪創新周期中。

    責任編輯:Rex_08

    關鍵詞:
    推薦閱讀
    欧美国产在线一区,免费看成年视频网页,国产亚洲福利精品一区,亚洲一区二区约美女探花
    <bdo id="ks4iu"><del id="ks4iu"></del></bdo>
  • 
    <pre id="ks4iu"></pre>
  • <bdo id="ks4iu"><del id="ks4iu"></del></bdo>
    <input id="ks4iu"><em id="ks4iu"></em></input>
    
    
  • <center id="ks4iu"><cite id="ks4iu"></cite></center>
  • 主站蜘蛛池模板: 一个上面吃一个下免费| 亚洲色欲久久久久综合网| 亚洲人成电影在线观看青青| japanese国产在线观看| 蜜中蜜3在线观看视频| 波多野结衣欲乱上班| 嫣嫣是女大生韩漫免费看| 国产三级久久久精品麻豆三级| 国产ts人妖合集magnet| 亚洲一久久久久久久久| 337p西西人体大胆瓣开下部| 波多野吉衣一区二区| 在线观看一区二区精品视频| 免费a级毛片在线播放| 一级做a爰片毛片| 精品日韩二区三区精品视频| 日本xxxxx19| 国产久热精品无码激情| 久久亚洲伊人中字综合精品| 风间中文字幕亚洲一区中文馆| 特级毛片在线观看| 欧美videos另类极品| 日本妇人成熟免费| 国产性夜夜春夜夜爽三级| 乱中年女人伦av三区| 国产精品揄拍一区二区久久| 最近中文字幕高清免费大全8| 国产超碰人人模人人爽人人喊| 亚洲色成人网一二三区| 99RE6这里有精品热视频| 毛片免费在线播放| 国产精品一区二区三区免费 | 偷窥欧美wc经典tv| 久久久久AV综合网成人| 色香蕉在线观看| 日本一线a视频免费观看| 在线观看国产三级| 亚洲毛片基地4455ww| 2345成人高清毛片| 最新日韩在线观看| 国产免费一区二区三区在线观看 |