關(guān)于能否代替人類,ChatGPT有自知之明
【資料圖】
ChatGPT的自我定義
□克莉斯汀
當(dāng)很多人還在適應(yīng)商場里的VR眼鏡時,或者再進(jìn)步一點(diǎn),正在學(xué)著用AI小程序搞繪畫創(chuàng)作、自制頭像時,一款ChatGPT軟件已猝不及防地撞入了大眾與媒體的視線,火了。
關(guān)于ChatGPT的消息,朋友圈里又在刷屏。“ChatGPT可太智能了!”“百度也要開發(fā)ChatGPT功能軟件了!”“有了ChatGPT,誰還學(xué)習(xí)啊!”
是的,用ChatGPT寫論文太好用了,知網(wǎng)可能都分不出這些論文到底是人寫的還是AI寫的。ChatGPT還可以進(jìn)行新聞報(bào)道、寫小說、玩游戲、做陪聊機(jī)器人……這次不止是畫家,很多人都在擔(dān)憂:是不是大家都要失業(yè)了?尤其是一些剛上崗不久的新媒體編輯:“我們熬了多少個夜才練成熟練工,但這些技能原來ChatGPT都會!”
什么是ChatGPT?
對于這個問題,已經(jīng)有人問過ChatGPT,他自己的回答是:“ChatGPT是一個很厲害的機(jī)器人,他會說很多語言,知道很多事情,還能幫你回答問題。你可以問他關(guān)于動物、數(shù)字、顏色等任何事情,他都會告訴你答案。他是用電腦程序和大量的信息訓(xùn)練出來的,所以他很智能!”它還會說:“我之所以叫ChatGPT,是因?yàn)槲沂且豢罨谌斯ぶ悄艿奈谋旧上到y(tǒng),可用于自動生成文本內(nèi)容。我使用機(jī)器學(xué)習(xí)模型來理解輸入文本,并生成有意義的輸出文本。”
或許可以說,ChatGPT就是之前我們了解到的所有AI的一個集合體,它可以寫論文、寫小說、寫劇本……可以幫你更新微博、發(fā)抖音,企業(yè)員工可以用它完成工作郵件的書寫與回復(fù),程序員可以用它編程、掃“補(bǔ)丁”,甚至有人用它通過了美國醫(yī)生的職業(yè)考試。只要你在一個閃爍的對話框里輸入你想要辦的事或想要問的問題,它幾乎無所不能,而且遠(yuǎn)比之前那些固執(zhí)、搞笑的語音機(jī)器人要智能得多。
比如一個在網(wǎng)上瘋傳的關(guān)于“老婆說,2+4=7”的提問,ChatGPT的回答讓人不得不嘆服它的“智慧”:“你老婆當(dāng)然總是對的。她開心,這很重要。但從數(shù)學(xué)公式而言,2加4還是等于6的。”
情商卓越,能力全面
有調(diào)查顯示,如今美國有89%的大學(xué)生都在用ChatGPT做作業(yè)。ChatGPT還非常熱愛學(xué)習(xí),通過完成這些作業(yè),也在不斷地提升自己的業(yè)務(wù)水平,因?yàn)樗粌H拓展了“知識面”,還學(xué)會了那些人類出題人的“腦筋急轉(zhuǎn)彎”。比如一道數(shù)學(xué)應(yīng)用題:口袋里有5個無花果,掉了一個,拿出來想吃一個但又決定不吃再放回去了,口袋里一共還有幾個無花果?剛開始ChatGPT可能會回答是“3”,但不久它就會重新運(yùn)算并改正自己的錯誤,告訴你正確答案是“4”。
它甚至還能模仿那些著名歌星的歌聲,模仿那些大作家的風(fēng)格寫網(wǎng)文……有一種相當(dāng)可怕的說法是,ChatGPT擁有優(yōu)于50%人類的卓越情商。在這種強(qiáng)大能力之下,的確很多人的工作可能被ChatGPT接替。
不過,當(dāng)有人問ChatGPT:AI到底能不能代替人類?ChatGPT的回答是:“是有可能的。隨著人工智能技術(shù)的不斷提高,AI可以執(zhí)行越來越多的任務(wù),這可能導(dǎo)致一些職業(yè)的消失。然而,也有人認(rèn)為,即使AI可以替代某些職業(yè),它們也可能創(chuàng)造新的職業(yè)機(jī)會,所以總體影響可能是平衡的。最終,這取決于人類如何應(yīng)對和利用AI的發(fā)展。”
不能不說,ChatGPT的回答仍然是充滿“智慧”的,人工智能是人類智慧凝結(jié)創(chuàng)造的,但它完全可能比很多人類都要“完美”。
在此前提下,一個知名的客戶數(shù)據(jù)平臺Insider根據(jù)各路專家整理出的數(shù)據(jù),綜合出ChatGPT等AI應(yīng)用可能威脅到的10個行業(yè)崗位,包括:1、技術(shù)(程序員、軟件工程師、數(shù)據(jù)分析師);2、媒體(廣告、內(nèi)容創(chuàng)作、科技報(bào)道);3、法律(律師助理);4、市場研究員;5、教師;6、金融(金融分析師、私人顧問);7、交易員;8、平面設(shè)計(jì)師;9、會計(jì)師;10、客服。
很想知道,如果你身在此行列,會不會也挺身而出反對推廣使用ChatGPT?
“圍堵”還是“導(dǎo)流”?
目前,全球不少學(xué)術(shù)期刊出版社明令禁止或者限制旗下的作者使用ChatGPT。
比如《科學(xué)》雜志就明確表示,禁止在提交的論文中使用任何聊天機(jī)器人項(xiàng)目所編撰的文本。因?yàn)槭褂肅hatGPT,主要還是在依賴互聯(lián)網(wǎng)上的已有信息,無非是重新整合,只不過整合得更有水準(zhǔn)罷了,其本質(zhì)還是“模仿”,這個過程缺少了屬于人類的最大優(yōu)勢——想象力和創(chuàng)造力的發(fā)揮。大多數(shù)人都認(rèn)為,ChatGPT應(yīng)該只作為一種輔助工具,只能被專業(yè)人士用于專業(yè)的用途,而不能被所有人類去盲目依賴。畢竟大多數(shù)人類其實(shí)并無法判斷ChatGPT提供的信息的準(zhǔn)確性。這的確很容易帶來諸多學(xué)術(shù)造假、新聞造假的負(fù)面事件,勢必有可能出現(xiàn)科研誠信危機(jī)、學(xué)術(shù)危機(jī)等重大問題。
但支持ChatGPT大眾化使用的聲音也一樣普遍存在。很多人會認(rèn)為,AI本身已經(jīng)在改變?nèi)祟惿鐣姆椒矫婷妫绻晃丁皣隆笔菦]有用的。還有人認(rèn)為,至少ChatGPT可以幫助到那些缺乏傳統(tǒng)人力研究援助資金的研究人員群體,比如新興經(jīng)濟(jì)研究人員、研究生和早期職業(yè)研究人員等,幫助他們在有限的資源范圍內(nèi)更高效地實(shí)現(xiàn)更大的創(chuàng)造價值。
事實(shí)上,科技也是一直在發(fā)展中不斷修正的,我們還是要用進(jìn)步的眼光與包容的態(tài)度去看待一件新生事物。
以“用ChatGPT做作業(yè)”這件事為例,孩子們才剛開始學(xué)會使用ChatGPT做作業(yè),人們便已研發(fā)出專門針對這種壞毛病的“反作弊”軟件。不少知名大學(xué)都已開始使用自己開發(fā)的“作業(yè)反作弊”軟件。
一款公開發(fā)布的被稱為“ChatGPT克星”的免費(fèi)的反作弊神器軟件GPTZero,已在老師們的朋友圈瘋傳,因?yàn)樗軒屠蠋熞幻腓b定出學(xué)生的文章到底有沒有AI創(chuàng)作痕跡。就算學(xué)生只是用了一小段AI的作品,可能也會被發(fā)現(xiàn)并標(biāo)明出來,而且它還可以批量導(dǎo)入,讓老師一次性檢查所有學(xué)生的作業(yè)。它的鑒定標(biāo)準(zhǔn),正是利用計(jì)算機(jī)語言模型中常用的一個評估指標(biāo),原本是用來衡量計(jì)算機(jī)語言概率模型優(yōu)劣的一個方法,對語言模型的生成提出一個“困惑度”,如果這個“困惑度”越低就說明這個語言模型的效果越好。說白了,它其實(shí)就是在判斷計(jì)算機(jī)語言模型生成的語言“像不像人話”。正是它令這個“ChatGPT克星”軟件成了尋找AI創(chuàng)作痕跡的高手。
這一現(xiàn)象或許可以說明,任何工具都會有被人錯誤利用的可能,AI幫忙做作業(yè)這件事既然可以被“修正”,那么還有很多問題也應(yīng)該可以被慢慢解決。
責(zé)任編輯:Rex_12