從chatgpt面世到全球為之著迷,已經有了近半年時間,可以說,chatgpt的大爆發驅動了行業的大繁榮,隨著Ai的應用面越來越廣,人們使用中不斷進行反饋,AI的表現越來越好。在其擅長的領域,已經可以完全替代人力。甚至有些設計公司,裁員了三分之一的員工,卻提供了更好的圖片設計產品。
資本市場也早已把當前Ai的各個方向預期了一輪,從訓練AI所需要的算力芯片,到擁有大量芯片的數據中心,到云服務商,再到各類正在開發Ai產品的公司,最后到應用側,各類傳媒、教育、游戲公司。
(相關資料圖)
無所不想,無所不炒,但倘若我們問問自己,chatgpt真的影響了我們生活中的方方面面了嗎,似乎又還沒到這個程度。
必須承認的是,在創意制作領域,我們確實看到了一些震撼的表現,但在AI的大規模應用方面,人們期待的自動化操作,卻還有更多進步的空間,至少,目前的Ai在日常應用中還是太少,除了程序員和設計師,編輯等,其他職業使用的依賴度還是不夠高,Ai更大規模的落地,還需要更多努力。
一、多模態大模型的成本制約
目前人們最期待的莫過于GPT-5,期待它可以更聰明,回答更多的問題,未來甚至能夠分辨語音和圖片,甚至視頻,試圖打造一個無所不能的chatgpt。
讓長板更長的思路總是正確的,但可以預期的是,對大模型更大的追求,將面臨算力和成本的制約。
可以看到,GPT-4的升級過后成本是數十倍的躍遷,目前的GPT-4收費,也只是維持盈虧平衡,但問題在于,除了設計及編程相關人員,20美元的收費是需要考慮的,至少從身邊的樣本看,很多用戶依然使用的是免費版本,有需要時,與他人共享一個GPT plus賬戶。
當下也許Ai更加實用的關鍵,并不是再度加大模型,不斷地擴充其計算容量,而是如何讓其更普遍,更輕量些。
我們可以對照電子計算機的誕生歷史。
原先的計算機只是開發用于軍事和政府用途的大型機器,其使用方式跟現在的Ai如出一轍,都是中心化的,也就是一個大型終端,用戶通過連接到終端來使用。
但顯然,計算機真正走向爆發并提升生產力,并不是在40年代-60年代問世的時刻,而是在后來,PC的出現才帶來了計算機應用的大爆發,每個人都可以極其輕易地,不受限制地使用PC,這帶來了互聯網的爆發,而在PC普及的幾十年后,智能手機將終端再次革新,使得互聯網走向了新的高潮。
Chatgpt目前的問題同樣是用戶在使用過程中,首先需在使用中缺乏更多的多樣性,例如每個用戶若打算基于自己的工作習慣打造合適自己的Ai,還有相當的難處。
企業使用API,則也面臨著數據開放的疑慮,至少目前,沒看到有哪個應用或者公司已經深度結合chatgpt推出產品,畢竟,把自己的數據庫完全給Ai看個遍,是很令人擔憂的。
另外,用戶使用chatgpt的方式過于中心化,這導致了較高的不穩定性,而例如斷網或者chatgpt服務器過載等問題,依然困擾著很多用戶,不穩定就導致了很多自動化流程無法實踐。
如現在我們在使用chatgpt中面臨的痛點,與chatgpt進行的對話均保存在云端,而隨著使用量的增加,重度使用者的對話量已經積累得非常龐大,可能高達數十條或者數百條對話,以解決不同的場景,而實際上每次打開chatgpt,加載這些數據已經開始緩慢了起來。
再看到,GPT-4的運算速度相比GPT-3.5,確實是慢了不少,倘若未來的GPT-5加入圖片等模態輸入,其運算量的加大就更不言而喻了。
即便用戶對于運算速度的問題可以容忍,但更大的運算量所帶來的成本和定價問題,則也是openai等公司不得不考慮的。
看上去chatgpt是一個殺手級應用,全球無數用戶都愿意使用,然而,要走出成功商業循環,或者說,要讓chatgpt馬上盈利,也不是那么簡單的。
面對此種問題,將chatgpt適當的本地化是一個很好的思路。屆時,較快的運算速度,更穩定的使用體驗,才會使得其的功能最大化。而包括大量的IOT設備,也才能更好地接入Ai。
其實我們看到目前的Ai繪畫和Ai擬聲,都是本地化、專類化取得成功的例子。
如大名鼎鼎的midjourney,就憑借其過硬的產品取得成功,我們看到的設計公司減員增效,也都基于這個。應該明確的是,Ai繪畫與chatgpt是完全分離的東西,Ai繪畫是應用了機器學習模型在設計領域的一個應用,它與chatgpt的成功沒有太大關系,千萬不要把它們混作一談:Ai。
在商業層面,midjourney更成熟,首先其專類化,用戶明確就是設計團體,盡管圖片處理的計算量比文字大,但不需要像gpt大模型一樣面面俱到,要考九門考試,又要編程,所以其訓練量只要面向圖片即可,成本平衡得更容易。
又比如Ai擬聲,最近我們看到了通過人聲訓練所產出的各類ai歌曲,如ai周杰倫,ai孫燕姿翻唱的數百首歌曲,效果不錯,這同樣是與chatgpt關系不大,同樣是基于ai的基礎算法取得的成功。
而制造出這些產品的基礎,其實就是開源的,可以在自己搭建的本地環境中訓練的模型。比如midjourney,實際上只是11個人+非常基礎有限的硬件。
再仔細想想,chatgpt所生成的產品,是不是還是欠缺的呢?Chatgpt讓人印象深刻的,是文章還是笑話?(請排除所有的AI繪畫、Ai音樂作品,它們不是gpt的產物)
所以說,chatgpt作為一個大模型在自然語言理解上有其巨大價值,但應用側需要完善,需要更多的用戶來使用參與,來發散自己的創意把Ai應用好。
其角色更應該是基礎性的,類似于Ai繪畫中的diffusion算法,來幫助用戶繼續開發更進一步的產品。所以,追求大模型的同時,專類化更是Ai進化的關鍵。
當然,要達到此種效果,首先需要openai等公司在商業模式上的改變,包括將訓練Ai的一部分職能讓渡給用戶,給予更高的自由度。也包括硬件層面的適配。例如設計在PC層面支持特定Ai運算的芯片,以應付本地啟動模型運算的基礎算力。
另外,還需要將Ai進行小型化輕量化,部分的數據保存在本地,不再進行預加載。大模型過大后,將其特定用途分型,即為剪枝,以達到更低的運算量,這都是需要重新設計的。
二、適應新時代的趨勢
因此,Ai時代的下一個看點,并不是GPT-5或者GPT-6后面還有多聰明,因為目前的chatgpt在應付人類的問題上已經足夠好,正如圖片所示,進步空間其實就是剩下的比例了,而明顯,距離滿分已經不遠。
關于大模型的發展,未來分化成小模型,提煉其核心能力,使其可以被更多用戶所使用,創造是關鍵,我們還是從痛點出發,倘若要實現本地化,使得每個人可以訓練自己的Ai,首先要的是硬件方面的適配。
如算力,滿足本地化進行Ai訓練和運算的芯片將是一個開放的方向,這其中需要的,首先是GPU公司的適配,對未來PC整個業務模式的適配,這個機會不只是英偉達的,實際上幾個芯片業內的巨頭還是有機會參與競爭,另外,FPGA和ASIC芯片也應該在這個趨勢的發展中有一定的地位。
當然,也別忘了,作為芯片的載體,也是訓練和運用Ai的載體,無論是PC還是手機,都有在這基礎上實現功能創新的可能。
當在Ai實現專類化的過程中,也需要一部分公司對于大模型進行修整,重塑,如一些公司正在針對chatgpt的數據緩存進行改善以實現數倍的加載速度提升。同樣地,一些基于chatgpt所建設成的專類AI已經實現了更快的運算速度,如文本識別的等。這些完善Ai結構,把chatgpt從大模型分離出小模型的公司,同樣大有前途。
三、結語
新事物的誕生總是需要一段時間的適應期,需要時間讓人們去應用,發掘,創造,對于chatgpt而言,明顯,現在就是在一個事物認知逐漸從發現亮點到發現缺點的過程,一定的擔憂和懷疑將很快到來。
大模型的未來,依然充滿不確定性,如何讓其本地化以實現運算速度和穩定性的提高,成為小模型,個人模型(personal model)確實是現在提升使用體驗的關鍵。無論是Ai繪畫還是Ai音樂,都是小模型的好例子。
因此朝著這方向,新的個人化硬件發展和應用側的開發,將是未來一段時間Ai發展的重點,而單純的大模型模仿,在算力上,在模型參數量上的內卷,不一定是更應該聚焦的方向。
目前AI的快速發展,痛點的出現總是不可避免的,方向的改變也是迅速的,革命性歸革命性,人們使用chatgpt及其衍生產品的比例,時長,在這些產品上的付費額,包括相關Ai公司所得到的營收及增長,才是對Ai產業發展程度更立體的觀察指標。而明顯,現在的Ai,仍需要更多的改善。
責任編輯:Rex_10