出品 | 搜狐科技
(資料圖片)
作者 | 鄭松毅
3月29日消息,特斯拉CEO埃隆·馬斯克與上千名人工智能專家及AI行業高管簽署聯名信,呼吁暫停訓練比GPT-4更強大的人工智能系統至少六個月,理由是這種系統對社會和人類構成潛在風險。
截至目前,圖靈獎得主 Yoshua Bengio、特斯拉 CEO(OpenAI 聯合創始人)伊隆?馬斯克、蘋果聯合創始人 Steve Wozniak、等 1000 多人已經在這封公開信上簽名。
搜狐科技從公開信中了解到,具備與人類競爭能力的AI智能系統可能會對社會和人類構成嚴重的風險。正如廣泛認可的Asilomar AI原則中所述,高級AI可能代表地球生命史上的深刻變化,應以相應的關懷和資源進行規劃管理。不幸的是這種級別的管理沒有出現,而出現的是失控的趨勢。沒有人,甚至它們的制造者都無法理解、預測、或可靠的控制。
針對AI智能與人類之間的競爭,公開信中提出以下幾個問題:
是否應該讓機器用宣傳和謊言充斥我們的信息渠道? 我們應該自動化所有工作,包括令人滿意的工作嗎? 我們是否應該發展最終可能超越我們、并取代我們的非人類思維? 我們應該冒險失去對我們文明的控制嗎?公開信表示,只有當我們確信它們是積極影響,且風險是可控的情況下,才應該開發更強大的人工智能系統。
OpenAI最近發布的關于人工智能的聲明中指出,“在某些時候,開始訓練未來系統之前進行審查很重要,為了AI智能更優的發展,現在同意對于創造新計算機模型的增長率做出限制”。
公開信表示,人工智能實驗室和領域專家應利用此次暫停,共同開發和實施一套用于高級人工智能設計和開發的共享安全協議,并由獨立的外部專家進行嚴格審計和監督,這些協議主要是為了保證它們的系統是安全的。公開信指出,這并不表示總體上暫停AI開發,而是從不可預測的大型黑盒模型的危險競賽中后退一步。
公開信呼吁,人工智能研究和開發應該重新聚焦于使當今強大的、先進的系統更準確、安全、穩健、透明、可解釋、一致、可靠和忠誠。
同時,AI開發人員應與政策制定者合作,加快開發強大的AI治理系統。該系統至少應包括:
專門負責AI的監管機構; 監督和跟蹤高性能人工智能系統和大量計算能力; 強大的審計和認證生態系統; 可識別人工智能造成的傷害的責任; 為AI智能安全研究提供強大的公共資金,以及充足的資源來應對人工智能將造成的巨大經濟和政治破壞。公開信在最后表示,人類可以享受人工智能帶來的繁榮未來。當前,社會已暫停其他可能會對社會造成災難性影響的技術。讓我們一起享受一個AI漫長的夏天,而不是毫無準備地陷入秋天。
據悉,該公開信在早期發布時間就已經在全球范圍內持續發酵,社會人士對這封公開信各持己見,較多數人表示支持,較少數人反對。支持的人是為了避免AI智能過度發展,不可控的情況下給人類帶來危害;而反對的人則是享受AI智能帶來的便捷性,并認為停下代表將被落后淘汰,因為并不是所有人都會停下。
當下,ChatGPT、Adobe AI等智能應用給人們帶來便捷享受感的同時,AI智能惡意“脫衣”地鐵女子、AI漫畫版權無人維護等負面問題也隨之而來,然而這些AI智能帶來的副作用是否已經觸碰到了法律底線?
搜狐科技認為,我們用發展的眼光看待AI智能應用的同時,也需要用理性的目光審視AI帶來的負面影響,并應及時策劃解決方案。
對于當下AI智能發展水深火熱的態勢,您怎么看?
責任編輯:Rex_29