圖片來源:視覺中國
記者 | 黃璨
2022年11月30日,美國人工智能研究實驗室OpenAI推出人工智能技術驅動的自然語言處理工具ChatGPT。ChatGPT能夠理解人類語言,分析上下文與用戶進行對話,幾乎達到了“文能寫文章、武能改Bug”的程度。
(相關資料圖)
聯想近期“絕望的文盲”事件以及電影宣發團隊的迷惑操作,ChatGPT似乎能比人類更勝任這類程序性文字工作。在回應問題時,還能“彬彬有禮”主動認錯,對于給出的錯誤答案進行糾偏。盡管ChatGPT自述“不能取代人類公關”,但在反復追問下,ChatGPT也能夠不斷接近理想回答。值得注意的是,ChatGPT的輸出結果很大程度上取決于人類如何輸入,“絕望的文盲”們能否把自己的需求描述準確清晰也是個問題。那么,ChatGPT能為明星以及其團隊做些什么呢,界面新聞找ChatGPT聊了聊,以下為“開箱測評”體驗報告。
在藝人公關方面,由于公關報告在文本上更有結構性和可預測性,ChatGPT在這方面的占據絕對優勢。當記者提問要為男明星與粉絲戀愛寫公關稿時,ChatGPT能給出多個版本的回答,既可以自定義字數,又可以區分嚴肅版和深情版,還可以補充進行公關聲明。當繼續追問“粉絲依舊很生氣,請你給一個誠懇的回答”時,ChatGPT也能做到“聲淚俱下”——首先道歉、其次保證不再犯、最后上升到公眾人物的社會責任感高度,“套路”查重率高達99%。相較于不少明星公關團隊“憋”兩天才出來的不痛不癢的聲明,ChatGPT的一秒生成式文本在時間上“贏麻了”。
在時效性之外,ChatGPT的文本在質量上也毫不遜色。在記者提問為某部電影生成微博文案時,ChatGPT甚至還附上了話題,結構上也模仿了微博樣式,小標題和總結句一個不落。ChatGPT甚至還可以生成“詩歌體”文案,當提問“更有文采點”時,ChatGPT也能完美應對。
除了具體文本外,ChatGPT還能夠提供一些方向性建議。當記者給出電影類型、明星陣容、主創團隊時,ChatGPT能夠回答合適的上映檔期,并春節檔、暑期檔、空窗期挨個分析,頭頭是道。面對飯圈互撕影響電影口碑的問題時,ChatGPT也給出了不錯的應對方案。
然而,在面對是非型提問時,ChatGPT顯得十分“圓滑”——正反面的利弊點均做闡述,但又不給出具體答案。例如,問“電影是否應該啟用流量演員”,ChatGPT從票房和口碑分別論述了兩大段。在記者反復追問下,ChatGPT依舊回答“是否應該啟用流量演員,取決于電影的需求和導演的選擇”。這種含糊不清的表達也似乎掌握了人類凡事都“不說滿”的言語藝術。
目前,ChatGPT也有一些缺點,最明顯就是不具備實時搜索功能,無法學習新知識并更新知識儲備,其知識停留在數據集收集的內容。因此,在討論最新電影和事件時,ChatGPT顯得有些“落伍”。例如,記者在和ChatGPT討論《保你平安》時,ChatGPT斬釘截鐵地表示《保你平安》并不是大鵬的電影。據說OpenAI也在針對數據庫的實時更新進行改進,或許到了GPT的下一個迭代版本這個問題將會得到解決。
另外,ChatGPT本質上是一種交互式文本生成模型,是依靠“詞語接龍”的方式從概率去判斷下一個接的詞可能是什么。它無法理解話語的意思,不足以準確處理邏輯問題,對于邏輯類非概率問題時常給出錯誤答案。因此,ChatGPT在解決策略型“怎么辦的問題有些“吃力”,只能根據過往相關文本經驗進行回答。
當提問“你有哪些技術局限性”時,ChatGPT表示目前自己存在知識面受限、上下文理解能力有限、意圖識別精度有限等問題,但能從五個方面為電影宣傳提供幫助,包括調用知識庫、打造文案、精準營銷、口碑監測等。
記者和ChatGPT聊了小半天,也發現其在回答時的一些“套路”語句,包括但不限于“瘋狂甩鍋”“承認錯誤但絕不改正”。ChatGPT在回答前,經常加上一個”免責聲明“,如“作為一個語言模型,我可以為您提供一些宣傳的建議和文案,但最終的決策還是要由您和您的團隊來做出”。
在承認錯誤上,ChatGPT更是爐火純青。在提問稍表現出一些不滿時,ChatGPT便立即回復“非常抱歉,我的回答沒有讓您滿意”,進而“甩鍋”給提問者,表示“可以請您再次詳細描述您的問題,我會盡力給出更好的回答”。這些套路式回答都令人郁悶,但似乎人類也是這么做的,看來ChatGPT已經學習到了人類語言的“精髓”!
責任編輯:Rex_19