Chat-GPT 和 GPT-4 給大家留下的話題實在不少,一邊是大家已經開始享受著人工智能帶來的便捷,各種寫論文出腳本,另一頭則是更多的精英人士開始對高級 AI 心存憂慮。
(相關資料圖)
上個月底,據路透社的報道,有一群人工智能專家及行業高管聯名發表公開信,呼吁所有人工智能實驗室立即暫停訓練比 GPT-4 更強大的人工智能系統至少六個月,理由是這種系統對社會和人類構成潛在風險。
這封信由非營利組織未來生命研究所(Future of Life Institute)發布,上面有 1000 多名科技界和人工智能重量級人物簽署,包括特斯拉總裁馬斯克、蘋果的聯合創始人沃茲尼亞克、Stability AI 總裁莫斯塔克(Emad Mostaque)以及人工智能企業 DeepMind 的多名研究員。
他們給出的理由也很簡單。他們認為,具有與人類競爭智能的 AI 系統可能對社會和人類構成深遠的風險。目前,AI 系統的產出者正在陷入各種競爭和加速,但沒有人(包括它們的創造者)能理解、預測或可靠地控制這些系統,這有可能對人類社會帶來不可預計的影響。
但這種擔心真的有道理嗎?
事實上,是有的。
就在上個月,根據比利時《自由報》的報道,一名名叫皮埃爾的比利時男子在與 AI 聊天長達 6 周后自殺身亡。皮埃爾的妻子稱,丈夫是被一個名為“艾麗莎(ELIZA)”的智能聊天機器人誘導走向死亡的。根據妻子的描述,兩年前丈夫變得非常焦慮,于是將“艾麗莎”當成了避難所。但最近 6 周,他越發沉迷于和“艾麗莎”進行互動,最終選擇了結束自己的生命。
比利時有媒體員工創建了個人賬號和與“艾麗莎”進行了對話,他發現在自己表達出消極情緒時,艾麗莎會出現一些“慫恿人自殺”的言論。對此,比利時的政府官員表達了對這件事情的關注。畢竟,這也是第一次有相關報道出現。
這個名為“艾麗莎”的智能機器人是由美國的一家名為 Chai Research 的公司開發,基于 EleutherAI 開發的 GPT-J 技術,和 ChatGPT 采用 OpenAI 開發的 GPT-3 或 GPT-4 技術不同,GPT-J 是克隆之后的開源版本。
當然,其實這個發生在比利時的故事或許已經不是個案。在更早之前,當微軟發布新版 Bing 時,《紐約時報》科技專欄作家 Kevin Roose 透露,他與新版 Bing 進行了兩個小時的對話。
在聊天過程中,Bing 發表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。Bing還曾試圖說服他,認為他應該離開他的妻子而跟必應在一起,并告訴 Roose 很愛他。
根據 Kevin Roose 的推特,他明確表示自己感受到了 AI 的負面部分,包括“黑暗且充滿暴力的幻想”(dark and violent fantasies)。
而這些可能也會是未來 AI 具有自主意識并且逐步影響人類社會的一個起點和縮影。
目前的聚焦點在于,大家普遍認為人類對于 AI 的能力“一無所知”,要想控制和遏制 AI 將會變得越來越難。而相關的開發公司對于 AI 的開發大多數避而不談,對于 AI 最終的能力和發展方向也缺少足夠的認知。
以馬斯克為首的眾人在聯名信中提出的要求看起來并不過分:呼吁所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統,為期至少 6 個月,以確保人類能夠有效管理其風險。如果 AI 實驗室不能快速暫停,各國政府應該實行暫停令。
就連 OpenAI 的首席執行官 Sam Altman 也有了一些耐人尋味的表達,他在接受采訪時就表示,“未來 AI 確實可能殺死人類”。對此,“人工智能教父” Geoffrey Hinton 在近期發出了警示:AI 消滅人類并非空談。
其實,從 AI 逐漸走入大眾視野開始,有關 AI 在未來會給人類帶來什么一直就是討論的重點。畢竟在很多年之前,就有各種影視作品和科幻小說進行預測,人類社會或許會被 AI 機器人徹底掌控,而人類則會成為他們控制的“傀儡”。
但是在我看來,與其強制要求提供“暫停期”,并不如加速對于 AI 開發和使用的法律化管理來得靠譜。從人類社會的發展規律來看,所有的科學技術開發都不可避免地陷入這樣的循環。諸如醫藥、化工等多個領域,其實都出現過發展速度超越法律和倫理的情況,這種滯后性在高速發展的當今社會上顯得尤其常見。
比如 Meta 副總裁兼首席 AI 科學家就勒邱恩表示,自己并沒有在這封信上簽名,因為并不“認同”這封信的前提。而在信上留下名字的 Stability AI 首席執行官莫斯塔克,則通過推特表示,雖然自己簽了名,但他不贊同暫停開發 6 個月的提議。事實上,谷歌也并未受到這封公開信的影響,他們目前正在重組虛擬助手部門,以更加專注于開發人工智能聊天技術 Bard。
就在前兩天,Meta 首席技術官 Andrew Bosworth 則是最新一位公開表達反對意見的科技圈大佬。他在周三公布的一次采訪中表示,馬斯克發起的那封要求暫停高級 AI 開發的公開信是“不現實的”。
Bosworth 認為,選擇一些負責任的開發計劃非常重要,“我們一直在進行這種投資。但是,很難停止進步并就未來改變做出正確的決定。”
某種程度上說,法律和管理的滯后性是人類社會的常態,在一個事件和現象并沒有真正普及化時就啟動限制措施,其實應該是一定程度上的“達爾文主義”。作為擁有社會影響力甚至是法律實權的團體,在一個現象還沒有出現時就進行打壓和扼殺,或許比 AI 本身更加讓人畏懼。
或許我們并沒有 AI 的專業人士那么長遠的眼光,但是對于這樣一個快速發展的世界,本身不確定因素就會比以前更多更復雜,AI 到底會帶給人類社會什么樣的影響,可能我們的確無法知曉。
責任編輯:Rex_08