大模型生態(tài)需要百花齊放。
4月25日,由中國(guó)科技產(chǎn)業(yè)智庫(kù)「甲子光年」主辦、上海市信息服務(wù)業(yè)行業(yè)協(xié)會(huì)支持的「共赴山?!?023甲子引力X智能新世代」峰會(huì)在上海召開(kāi)。現(xiàn)場(chǎng)30余位嘉賓與數(shù)百位科技從業(yè)者共同全方位聚焦新一代人工智能,為科技與產(chǎn)業(yè)的結(jié)合尋找新機(jī)會(huì)。
在當(dāng)天下午的《行穩(wěn)致遠(yuǎn):大模型、大算力與可持續(xù)發(fā)展——新智能時(shí)代的基礎(chǔ)設(shè)施》主題圓桌中,達(dá)觀數(shù)據(jù)董事長(zhǎng)兼CEO陳運(yùn)文、亞馬遜云科技初創(chuàng)生態(tài)架構(gòu)師團(tuán)隊(duì)技術(shù)負(fù)責(zé)人孔雷、上海交通大學(xué)計(jì)算機(jī)科學(xué)與工程系教授&開(kāi)源GPGPU平臺(tái)“青花瓷”發(fā)起人梁曉峣、PPIO聯(lián)合創(chuàng)始人姚欣、華映資本管理合伙人章高男、億鑄科技高級(jí)副總裁徐芳6位嘉賓共同探討了 大模型實(shí)現(xiàn)路徑的多種可能性。
(相關(guān)資料圖)
以下是本場(chǎng)圓桌的交流實(shí)錄,「甲子光年」整理刪改:
1.大模型是否真的“越大越好”?
徐芳(主持人):這次圓桌的主題是《行穩(wěn)致遠(yuǎn):大模型、大算力與可持續(xù)發(fā)展:新智能時(shí)代的基礎(chǔ)設(shè)施》。2023年,人工智能領(lǐng)域有一個(gè)現(xiàn)象是所有人都無(wú)法忽視的——OpenAI帶來(lái)的ChatGPT,以及隨之而來(lái)的通用智能的沖擊。我們看一下國(guó)內(nèi),大模型如雨后春筍般出現(xiàn),互聯(lián)網(wǎng)大廠紛紛推出了自己的大模型平臺(tái)。但是我們都知道,做大模型背后有巨量的成本投入,包括訓(xùn)練模型、數(shù)據(jù)中心的租賃等。但是為什么成本這么高,各廠商還是會(huì)出現(xiàn)大模型的規(guī)模之爭(zhēng)?
陳運(yùn)文:大型模型在自然語(yǔ)言處理領(lǐng)域中是一項(xiàng)非常有價(jià)值的新技術(shù),能夠解決以往傳統(tǒng)技術(shù)難以解決的問(wèn)題。由于大型模型具有更大的存儲(chǔ)容量,能夠包含更多的知識(shí),因此在許多應(yīng)用場(chǎng)景特別是面向普通用戶的 C 端應(yīng)用場(chǎng)景下,大型模型能夠應(yīng)對(duì)來(lái)自各個(gè)方向的用戶需求,因此模型參數(shù)越大,它可以解決的問(wèn)題就越廣泛。這也是為什么當(dāng)今互聯(lián)網(wǎng)巨頭選擇超大規(guī)模的參數(shù)模型來(lái)承載各行各業(yè)的應(yīng)用的原因。隨著大型模型和 C 端應(yīng)用場(chǎng)景的不斷結(jié)合,特別是搜索引擎和商業(yè)應(yīng)用的結(jié)合,C端大型模型的參數(shù)規(guī)模一定會(huì)越來(lái)越大,其中包含的知識(shí)也會(huì)越來(lái)越豐富,它能夠解決的問(wèn)題也會(huì)越來(lái)越深入,這是未來(lái)的發(fā)展方向。
孔雷:剛才也聽(tīng)到很多嘉賓在講AI暴力美學(xué)——模型足夠大,足夠強(qiáng),參數(shù)足夠多,確實(shí)能帶來(lái)很強(qiáng)的效應(yīng),但只是表面現(xiàn)象。參照歷史,5年前或者10年前有大數(shù)據(jù)時(shí)代,現(xiàn)在大模型時(shí)代,大家都在談規(guī)模,但是我認(rèn)為模型之爭(zhēng)更多是一個(gè)營(yíng)銷口徑。在整個(gè)模型的學(xué)習(xí)曲線里面,模型大和小,參數(shù)多和少只是其中一個(gè)方面,還有很多包括算法優(yōu)化、工程化,對(duì)接應(yīng)用等維度。這是一個(gè)需要多維應(yīng)對(duì)的態(tài)勢(shì),我并不認(rèn)為模型越大,效果越好。反而現(xiàn)在我們國(guó)內(nèi)的初創(chuàng)公司呈現(xiàn)出了百花齊放的態(tài)勢(shì)。
對(duì)于現(xiàn)在的玩家我們分三個(gè)維度看——第一類玩家要做特別大的模型,比如OpenAI的GPT系列為領(lǐng)導(dǎo)的100B以上的模型。這個(gè)真的是超大規(guī)模。它的模式是要去構(gòu)建一個(gè)足夠高的壁壘,讓別人都望塵莫及,他們?cè)谫Y金和人力上的投入是別人很難在短時(shí)間趕上的。第二類和第三類玩家更多在契合大家的應(yīng)用場(chǎng)景,20B~65B是一類,10B以下是一類,這反而是更多國(guó)內(nèi)初創(chuàng)公司的契機(jī),也是值得各位計(jì)算機(jī)領(lǐng)域的專家挖掘、精細(xì)研究的地方。
姚欣:我也同意類似的觀點(diǎn),沒(méi)必要一味追求大規(guī)模,號(hào)稱萬(wàn)億級(jí)的模型并不見(jiàn)得效果好,人腦都做不到這么大的參數(shù)量。恰恰相反,我們要追求更小的數(shù)據(jù)量。AI發(fā)展過(guò)程中,大家的追求是用更小的數(shù)據(jù)量訓(xùn)練。上一個(gè)時(shí)代的AI其實(shí)是要大數(shù)據(jù),小模型;今天這個(gè)時(shí)代,模型大了之后我們反而可以讓數(shù)據(jù)相對(duì)較小,我們可以得出一個(gè)更有效的基礎(chǔ)。所以今天真正要讓模型走到應(yīng)用側(cè),我們往往要把模型蒸餾、裁減再使用,并不使用大的模型,可能的確是平臺(tái)層需要追求模型通用性所以主打大模型方向,但是對(duì)于大多數(shù)企業(yè)來(lái)講暫時(shí)用不到。
章高男:對(duì)于大模型通常的定義是100億以上的訓(xùn)練數(shù)據(jù)規(guī)模才能叫大模型,另外一般也默認(rèn)是以深度學(xué)習(xí)為主要框架的模型。我們通常所說(shuō)的大模型有這兩個(gè)前提。我個(gè)人很歡迎大企業(yè)參與大模型,因?yàn)檫@代表著技術(shù)發(fā)展潮流和趨勢(shì)。但大模型解決問(wèn)題的效果首先取決于訓(xùn)練數(shù)據(jù)的優(yōu)質(zhì)性,因?yàn)樗^通用大模型進(jìn)入很多細(xì)分行業(yè)領(lǐng)域里數(shù)據(jù)是很稀疏的。所以通用大模型在細(xì)分領(lǐng)域中效果未必是最好的,也有很多垂直行業(yè)的細(xì)分大模型的機(jī)會(huì)。
AI發(fā)展變化太快了,實(shí)話講我是跟不上學(xué)習(xí)的,只是了解皮毛但是又不得不學(xué),畢竟這是未來(lái)很重要的技術(shù)趨勢(shì)之一。有一個(gè)觀察是,這波大模型會(huì)讓深度學(xué)習(xí)取代很多過(guò)去的邏輯推理或者數(shù)學(xué)方法,這在工業(yè)中會(huì)有很多機(jī)會(huì)。譬如以前做CAE仿真,通常都是建立高維方程求解,但越來(lái)越多仿真軟件開(kāi)始嘗試深度學(xué)習(xí)方法,這是一個(gè)很大的機(jī)會(huì)。
2.大模型時(shí)代需要什么樣的算力結(jié)構(gòu)?
徐芳:非常感謝各位大咖的精彩分享。發(fā)展大模型離不開(kāi)基礎(chǔ)設(shè)施的建設(shè),請(qǐng)各位分享一下大模型時(shí)代需要什么樣的算力結(jié)構(gòu)?請(qǐng)梁曉峣教授先開(kāi)始。
梁曉峣:謝謝主持人。我本身專業(yè)是做GPGPU芯片的,從算力角度來(lái)講,現(xiàn)在這個(gè)GPGPU肯定是我們大模型算力的基礎(chǔ)底座,不光這波大模型熱潮是這樣。大概6-7年前開(kāi)始的上一波深度學(xué)習(xí)的算力基座就已經(jīng)變成GPU了。一直以來(lái),以英特爾為代表的CPU是芯片“皇冠上的明珠”,但7-8年前皇冠已經(jīng)易主了,現(xiàn)在GPU成為皇冠上的明珠。從英偉達(dá)的市值也可以發(fā)現(xiàn),最近幾年市值已經(jīng)比英特爾超了不止1倍,最高的時(shí)候可能達(dá)到英特爾市值的4倍。從真正應(yīng)用落地來(lái)講,A100一卡難求,到處都買不到,我們所有大模型都部署在GPU上的。從這點(diǎn)來(lái)看,未來(lái)沒(méi)有這樣一個(gè)堅(jiān)強(qiáng)的算力基座,大模型的道路就會(huì)非常艱難。因?yàn)榘凑漳柖?,按照英偉達(dá)的路線表,每隔一年半芯片的算力必然是翻倍,有時(shí)候還不止翻倍,可能翻3-4倍,現(xiàn)在這個(gè)A100的算力基本上也就是剛剛可以支持大模型的能力,再過(guò)兩代,算力翻到5-6倍以后,可以看一下大模型的規(guī)??梢缘绞裁礃拥牧考?jí)?,F(xiàn)在我們?cè)诖笏懔π酒矫娲嬖诙贪?,目前我們沒(méi)有看到真正能取代英偉達(dá)GPU的產(chǎn)品,再過(guò)3-5年別人也在不斷進(jìn)步,翻5-6倍以后我們的差距可能更大,這個(gè)值得大家注意。
姚欣:其實(shí)梁教授對(duì)比英偉達(dá)GPU來(lái)解讀算力只是揭示了算力的一角,因?yàn)榇蠹屹IGPU最多還是用來(lái)做訓(xùn)練。的確A100一卡難求,有一天我們應(yīng)用走向普及的時(shí)候,我們更大的挑戰(zhàn)在推理側(cè)。我之前也看OpenAI講到,未來(lái)95%的算力消耗在推理側(cè),訓(xùn)練側(cè)只占到5%。好消息是我們推理側(cè)的芯片選擇會(huì)更多,不會(huì)只有英偉達(dá)GPU一款,包括國(guó)產(chǎn)GPU、TPU等都在發(fā)展。隨著應(yīng)用的普及,算力可能是千萬(wàn)倍增長(zhǎng),同時(shí)也會(huì)帶來(lái)整體成本下降。OpenAI單次搜索連續(xù)對(duì)話的成本比谷歌更高,有研究顯示,如果要用OpenAI顛覆谷歌或者谷歌切換到這個(gè)模式,成本可能會(huì)近百倍地上升,因?yàn)樵谑褂脮r(shí)算力消耗會(huì)在短時(shí)間內(nèi)爆炸式增長(zhǎng)。最近我們用ChatGPT的時(shí)候頻頻限流,有錢的地主家都燒不起了,當(dāng)各家大模型上線后真正面臨的挑戰(zhàn)在這里。未來(lái)整個(gè)算力大爆發(fā)會(huì)帶來(lái)整個(gè)云邊端、芯片底層到云算力平臺(tái)的爆發(fā),比大模型廠商之爭(zhēng),算力之爭(zhēng)更是繁榮的場(chǎng)景,更是值得大家進(jìn)入的場(chǎng)景。
孔雷:我非常認(rèn)同。算力在大模型時(shí)代是一個(gè)很重要的基座,但并不是全部。我們有兩個(gè)見(jiàn)解可以分享給大家:
首先,像亞馬遜之類的很多云巨頭廠商都在建自己的基座模型,這個(gè)思路是怎么來(lái)的?我們看過(guò)去整個(gè)IT基礎(chǔ)架構(gòu)的發(fā)展,上個(gè)時(shí)代是大數(shù)據(jù)時(shí)代,大數(shù)據(jù)時(shí)代其實(shí)最早也是各家初創(chuàng)公司百花齊放搞出來(lái)的,但是后來(lái)發(fā)現(xiàn)它的算力、規(guī)模、數(shù)據(jù)之爭(zhēng)最后都會(huì)碰到資源的瓶頸,這個(gè)時(shí)候誰(shuí)來(lái)解決?無(wú)論是大數(shù)據(jù)還是大模型,它們多是跟云天然綁定的,GPU、CPU,包括現(xiàn)在很多提到的NPU也是其中一部分,還要看周邊所有的生態(tài)玩家配套設(shè)施、網(wǎng)絡(luò)、存儲(chǔ),是一個(gè)工程化的系統(tǒng)工程,云廠商有非常大的先見(jiàn)之明、資源優(yōu)勢(shì)和規(guī)模效應(yīng)。長(zhǎng)遠(yuǎn)看,接下來(lái)3-5年,(大模型會(huì)成為)各個(gè)云廠商兵家必爭(zhēng)之地。
第二,從芯片的角度,其實(shí)現(xiàn)在AI芯片在國(guó)內(nèi)外百花齊放,有更多芯片公司涌現(xiàn),做更加細(xì)化的AI芯片,他們?cè)诟鱾€(gè)領(lǐng)域做優(yōu)化工作,無(wú)論是降低能耗還是優(yōu)化算法等領(lǐng)域都有公司存在。這不是為了打破寡頭壟斷,而是為了解決所有模型領(lǐng)域的細(xì)分場(chǎng)景痛點(diǎn)。
把這兩點(diǎn)結(jié)合起來(lái),就是大家都在談的“模型即服務(wù)”(MaaS),MaaS的底層肯定是云巨頭提供的。這是我的一些見(jiàn)解。
徐芳:的確,國(guó)內(nèi)的芯片除了GPGPU,存算一體之外,更新的架構(gòu)也在持續(xù)出現(xiàn),這些最終都是服務(wù),比如達(dá)觀數(shù)據(jù)向垂直領(lǐng)域提供整體解決方案,請(qǐng)陳運(yùn)文總分享一下他的觀點(diǎn)。
陳運(yùn)文:我們自己的模型訓(xùn)練使用中型的算力平臺(tái),目前我們用的是英偉達(dá)的全套方案,用的是DGX方案,多G多卡的高性能通信,能充分喚起GPU的算力,還是非常優(yōu)秀的。但更大規(guī)??ǖ挠?xùn)練是租賃的方式,因?yàn)槲覀內(nèi)孔越ǔ笠?guī)模的多G多卡集群是不合算的,所以選擇租賃相應(yīng)云服務(wù)。
國(guó)內(nèi)有上千張卡集群的平臺(tái)以前真的很稀缺。我們最近聯(lián)系運(yùn)營(yíng)商有一些資源,我們相信今年下半年,國(guó)內(nèi)多G多卡的上千張卡以上的GPU集群應(yīng)該會(huì)比現(xiàn)在多很多,到時(shí)候算力可以得到一部分緩解,這個(gè)都是在訓(xùn)練側(cè)。推理側(cè)的話和幾位嘉賓一樣,推理側(cè)的算力需求非常大,各行各業(yè)不管是個(gè)人還是企業(yè),未來(lái)都會(huì)有自己的推理策略需求,但現(xiàn)在中國(guó)大量企業(yè)沒(méi)有自己的推理側(cè)算力。我們的大模型未來(lái)賦能垂直行業(yè)的機(jī)會(huì)很多,而且現(xiàn)在一片空白,推理側(cè)建設(shè)運(yùn)營(yíng)都有很大的機(jī)會(huì)。我們模型的特點(diǎn)是一次訓(xùn)練完成以后,能夠拷貝給很多客戶做推理應(yīng)用,我非常看好未來(lái)在推理側(cè)的平臺(tái)建設(shè)。
徐芳:非常感謝陳總的分享。大家知道,任何產(chǎn)業(yè)的底層發(fā)展要素中,資本是不可缺少的一部分,我們請(qǐng)章高男總從資本角度分享下大模型時(shí)代需要什么樣的算力結(jié)構(gòu)?
章高男:行動(dòng)上講,每個(gè)基金都有自己的團(tuán)隊(duì)能力組成,有自己投資的方向,整體上我們還是非常擁抱整個(gè)AI帶來(lái)的變化。推理和訓(xùn)練端的算力我們都投過(guò),邊緣計(jì)算我們也投了智能化RTOS。訓(xùn)練推理我們也投了GPU,這波對(duì)GPU還是有非常好的促進(jìn)作用,算力不光是GPU,還有FPGA、Asic還有各種異構(gòu)架構(gòu)的新嘗試,特別是一些細(xì)分特殊場(chǎng)景上有很多高效的算法調(diào)優(yōu)機(jī)會(huì)。我個(gè)人覺(jué)得算力這塊有百花齊放的態(tài)勢(shì),做得好都能找到自己的定位和機(jī)會(huì)。
因?yàn)槲沂峭秚o B和科技的,我的重點(diǎn)方向是智能制造和通信。我們已經(jīng)在智能制造領(lǐng)域投了很多企業(yè),過(guò)去以數(shù)據(jù)化為主已經(jīng)有一定的生態(tài)能力,未來(lái)會(huì)向工藝線傾斜,通過(guò)軟硬結(jié)合來(lái)完善我們的生態(tài)。我們發(fā)現(xiàn)工業(yè)領(lǐng)域很多企業(yè)都有很多Know-how,但他們工藝改進(jìn)的方法落后了,沒(méi)有擁抱深度學(xué)習(xí),這波大模型熱可以讓他們很好的借鑒。所以我們現(xiàn)在投工藝線必須以極強(qiáng)的行業(yè)場(chǎng)景或者Know-how數(shù)據(jù)作為起點(diǎn),如果沒(méi)有這些數(shù)據(jù),或者業(yè)務(wù)不能產(chǎn)生稀缺的私有數(shù)據(jù)的話,我是肯定不投資的。過(guò)去是沒(méi)有加這個(gè)前提條件的。另外,如果你的工藝路線愿意跟這些大模型或者行業(yè)里面的類似模型結(jié)合,愿意采用深度學(xué)習(xí)方法去做持續(xù)的工藝改善,那這類項(xiàng)目是可以優(yōu)先選擇的。這兩點(diǎn)是AI對(duì)我們本身投資策略和選擇標(biāo)準(zhǔn)都產(chǎn)生了一些很明顯的影響。
3.大模型的開(kāi)源與閉源,未來(lái)誰(shuí)是主流?
徐芳:講完了技術(shù)、產(chǎn)業(yè)發(fā)展,我們可以看一下關(guān)于大模型時(shí)代開(kāi)源與閉源的路線之爭(zhēng)。有人認(rèn)為開(kāi)源更有利于建立生態(tài),有人覺(jué)得從商業(yè)模式出發(fā),開(kāi)源不是很好的選擇。各位對(duì)于這個(gè)討論有怎樣的觀點(diǎn),未來(lái)的主流路線會(huì)是誰(shuí)?
陳運(yùn)文:從大模型本身的開(kāi)源閉源來(lái)說(shuō),大家可以看到現(xiàn)在整體市場(chǎng)情況還是百花齊放的,最近看到陸陸續(xù)續(xù)有很多國(guó)外的科研機(jī)構(gòu),開(kāi)源了自己的模型。但也有一些商業(yè)機(jī)構(gòu),尤其一些大型的機(jī)構(gòu),比如OpenAI從GPT-3.0往后都是閉源的。
一個(gè)比較有意思的現(xiàn)象是, 開(kāi)源有“程度”之說(shuō),有一些是徹底開(kāi)源,從訓(xùn)練數(shù)據(jù)、算法模型參數(shù)到訓(xùn)練好的模型,全部開(kāi)放;有一些半開(kāi)源,只開(kāi)源了算法模型。不同企業(yè)選擇不同,我猜測(cè)未來(lái)可能從學(xué)術(shù)界角度來(lái)說(shuō),應(yīng)該還是擁抱開(kāi)源。我看到不管是在清華還是復(fù)旦,中國(guó)頭部高校開(kāi)源都做得非常優(yōu)秀。很多商業(yè)公司都是閉源公司, 商業(yè)公司可能從知識(shí)產(chǎn)權(quán)保護(hù)和未來(lái)商業(yè)變現(xiàn)角度考慮,不同公司有不同選擇。我自己的判斷是,大型的商業(yè)公司可能選擇閉源方案,學(xué)術(shù)界為了促進(jìn)行業(yè)的繁榮,可能會(huì)選擇開(kāi)源。大家選擇的時(shí)候模型本身只是其中一小部分因素而已,真正未來(lái)的商業(yè)落地,其實(shí)大家看的是基于模型上所構(gòu)建的垂直行業(yè)產(chǎn)品,產(chǎn)品才是未來(lái)的核心競(jìng)爭(zhēng)力所在,而且這個(gè)產(chǎn)品的形態(tài),不只是今天大家看到的這么簡(jiǎn)單的一問(wèn)一答的聊天形態(tài),未來(lái)大模型會(huì)賦能很多行業(yè),變成很復(fù)雜、很專業(yè)的產(chǎn)品,這些專業(yè)的產(chǎn)品結(jié)合底層模型,才能真正有生命力,不管是開(kāi)源還是閉源的。
孔雷:我的觀點(diǎn)非常簡(jiǎn)單,可以把大模型類比成以前的操作系統(tǒng)或數(shù)據(jù)庫(kù),所以不存在所謂開(kāi)源閉源之爭(zhēng)。長(zhǎng)久來(lái)看無(wú)論從商業(yè)模式還是生態(tài)發(fā)展,都是相互共存的。稍微具體一點(diǎn),我更認(rèn)可陳總的觀點(diǎn),未來(lái)我們會(huì)看很多垂類的行業(yè)應(yīng)用,會(huì)涌現(xiàn)出很多應(yīng)用類公司,走的是小型閉源之路,但在to C領(lǐng)域是開(kāi)源方式。
梁曉峣:作為學(xué)術(shù)界的一員毫無(wú)疑問(wèn)是開(kāi)源,我們學(xué)術(shù)界最想避免的就是封鎖,最支持的就是共享,這樣才能促進(jìn)這個(gè)行業(yè)的繁榮。雖然OpenAI一開(kāi)始是開(kāi)源的非營(yíng)利組織,但做了幾代開(kāi)源之后逐漸走向封閉,進(jìn)而有可能成為一個(gè)商業(yè)化行為,但會(huì)被破局。全世界的高校都在做自己的開(kāi)源大模型,學(xué)術(shù)界是出人才的地方,是有新生力量的地方,一定會(huì)超越封閉的生態(tài)環(huán)境。
為什么我今天的頭銜除了“教授“”還特意放了“GPGPU開(kāi)源平臺(tái)”?我個(gè)人認(rèn)為不光是在大模型層,在應(yīng)用層、算法層、芯片層都應(yīng)該開(kāi)源,我率領(lǐng)交大團(tuán)隊(duì)的第一個(gè)GPGPU平臺(tái),我們稱之為青花瓷,我們的宗旨是什么?目標(biāo)是什么?就是播種普惠算力,讓人人都能做自己的GPU,把我們GPU的設(shè)計(jì)經(jīng)驗(yàn)賦能給所有的企業(yè),以開(kāi)源免費(fèi)中立的方式給所有人。我們這個(gè)平臺(tái)可能自己不會(huì)做任何一塊GPU芯片,但我們希望教會(huì)所有人做自己的GPU。我們?cè)谟?xùn)練端算力被英偉達(dá)壟斷,但我們希望有人突破這個(gè)封鎖和壟斷,不是靠國(guó)內(nèi)幾家做GPU的公司或者大公司就能夠搞定的,因?yàn)閯e人的生態(tài)墻太高了,我們要想突破別人的生態(tài)墻,必須要有開(kāi)源、開(kāi)放、積沙成塔、愚公移山的精神,才能打破別人已經(jīng)深耕了幾十年的瓶頸。我們這個(gè)開(kāi)源開(kāi)放的GPGPU就詮釋了開(kāi)源和閉源的協(xié)作關(guān)系,源是賦能給所有的企業(yè)!而這些企業(yè)自己做的芯片肯定是要賣錢的,他是一種閉源的商業(yè)模式,開(kāi)發(fā)更好的GPGPU,這是我們的初衷,我想大模型也是這樣的道理。
徐芳:非常感謝梁教授的分享,讓我們獲得了更多力量,相信后面一定會(huì)后浪推前浪,持續(xù)地有后來(lái)者不斷推動(dòng)整個(gè)產(chǎn)業(yè)向前發(fā)展。接下來(lái)有請(qǐng)姚欣總就開(kāi)源閉源之爭(zhēng)發(fā)表觀點(diǎn)。
姚欣:我印象中每一次時(shí)代之爭(zhēng),都會(huì)先冒出一家閉源的、壟斷的領(lǐng)先公司,之后會(huì)號(hào)召起來(lái)整個(gè)行業(yè)以開(kāi)源之態(tài)去圍剿它。比如從iOS到安卓,全部在重演IT戰(zhàn)爭(zhēng)。所以我覺(jué)得這次微軟又回到了20年前,又選擇了一次閉源和封閉的模式,我能看到的的確就是所有的企業(yè)都在圍繞開(kāi)源發(fā)展。
回顧歷史,我們會(huì)發(fā)現(xiàn)很多產(chǎn)業(yè)的創(chuàng)新早期都采用了垂直整合的方式。例如,當(dāng)年iPhone在2007年推出時(shí),由于當(dāng)時(shí)硬件和軟件能力相對(duì)薄弱,所以它采用了閉源的方式來(lái)壟斷整個(gè)產(chǎn)業(yè),并先把整個(gè)體驗(yàn)和商業(yè)模式打造成閉環(huán)。只有在這種封閉的情況下,才能較快地構(gòu)建一個(gè)完整的生態(tài)系統(tǒng)。但實(shí)際上,產(chǎn)業(yè)的發(fā)展和繁榮需要各個(gè)方面做出貢獻(xiàn),如制造硬件、開(kāi)發(fā)應(yīng)用程序、進(jìn)行應(yīng)用支持等等。
現(xiàn)在,人工智能也在閉源先行。然而,我們正在走向開(kāi)源,例如PPIO在AI推理平臺(tái)支持下,為大量數(shù)字人提供服務(wù)。我們進(jìn)入這個(gè)市場(chǎng),也正是因?yàn)槿ツ闟table Deffusion公司的開(kāi)源。此外,我也注意到,Stable Deffusion開(kāi)源之后的模型和應(yīng)用的迭代速度遠(yuǎn)遠(yuǎn)超過(guò)了OpenAI自家的CLIP等閉源應(yīng)用和模型。由于有太多的細(xì)分場(chǎng)景需要滿足,沒(méi)有一家公司能夠窮盡所有的可能性。因此,只有生態(tài)系統(tǒng)達(dá)到繁榮階段,才能實(shí)現(xiàn)更全面和高效的發(fā)展。我完全贊同梁曉峣教授的看法:中國(guó)作為人工智能的追趕者,必須倡導(dǎo)開(kāi)源,甚至全面開(kāi)源。我特別期待數(shù)據(jù)開(kāi)源標(biāo)準(zhǔn)的制定,這是能夠推動(dòng)我們共同發(fā)展的一項(xiàng)重要任務(wù)。
徐芳:章高男總從資本的角度看一下,您對(duì)發(fā)生在產(chǎn)業(yè)界中不同公司的商業(yè)行為有什么樣的看法?
章高男:這個(gè)話題我基本上100%同意前面嘉賓的觀點(diǎn)。開(kāi)源閉源和軟件成功是兩個(gè)獨(dú)立的事件。開(kāi)源有很多成功的,閉源也有很多成功的。而且很多閉源軟件也會(huì)借鑒很多開(kāi)源軟件的思想,有時(shí)候也有很多模糊空間。如果說(shuō)是走開(kāi)源的路線,可能有兩種方式機(jī)會(huì)更大,一個(gè)是有超級(jí)大廠的強(qiáng)力支持來(lái)維護(hù)生態(tài)來(lái),另一種是有廣泛的群眾基礎(chǔ),這要求這個(gè)軟件必須是超級(jí)基礎(chǔ)剛需,非常多人有強(qiáng)烈需要。
姚欣:你覺(jué)得Linux開(kāi)源背后是巨大的商業(yè)支持嗎?
章高男:不。我說(shuō)商業(yè)成功。
姚欣:產(chǎn)業(yè)甚至技術(shù)開(kāi)發(fā)者的支持才能帶來(lái)開(kāi)源。
梁曉峣:賺錢和成功是兩回事。影響力和社會(huì)影響力更是兩回事。
章高男:Linux這種開(kāi)源包括過(guò)去是Unix生產(chǎn)出來(lái)的Linux,你這個(gè)最終也是一個(gè)商業(yè)化組織,最終也是被這個(gè)公司收購(gòu),最終還是總歸要投入產(chǎn)業(yè)背后。有情懷的開(kāi)源,這個(gè)是鼓勵(lì)的,這個(gè)是適合進(jìn)步的。你做一個(gè)商業(yè)科學(xué)家本身是要促進(jìn)社會(huì)進(jìn)步,如果方向?qū)α?,大家愿意貢獻(xiàn)自己的代碼,那就是看活躍度,我更想說(shuō)的就是我們不是糾結(jié)開(kāi)源和閉源,而是開(kāi)放的態(tài)度,即便是開(kāi)源,我們要把這個(gè)做起來(lái),這個(gè)心態(tài)應(yīng)該是我們領(lǐng)域有的。
徐芳:感謝幾位嘉賓的分享,此次的圓桌論壇到此結(jié)束,非常感謝各位的分享!
責(zé)任編輯:Rex_09