機器之心專欄
機器之心編輯部
多智能體代碼庫 CAMEL,提出了通過角色扮演框架來研究 LLM 智能體的行為和能力。
未來的社會會被通用人工智能(AGI)控制嗎?當擁有多個 ChatGPT 智能體會有多可怕。
(資料圖片)
ChatGPT 已經初步展現了 AGI 的雛形,成為了各行各業工作人員的全能小助手,但如果任由其野蠻生長,不加于管制會不會有一天人類再也無法控制 AGI?意識到這個問題嚴重性,特斯拉 CEO 埃隆?馬斯克、蘋果聯合創始人史蒂夫?沃茲尼亞克、圖靈獎得主 Yoshua Bengio 等人帶頭簽署公開信呼吁停止巨型人工智能實驗至少 6 個月。
3 月 21 日,阿卜杜拉國王科技大學的研究人員開源了用于探索大語言模型(LLM)思想和能力的多智能體代碼庫 CAMEL,提出了通過角色扮演框架來研究 LLM 智能體的行為和能力。
論文鏈接:
https://ghli.org/camel.pdf
代碼庫鏈接:
https://github.com/lightaime/camel
項目主頁:https://www.camel-ai.org/
ChatBot鏈接:http://chat.camel-ai.org/
研究介紹
該論文提出了一個名為 “角色扮演”(Role-Playing)的新型多智能體框架,使多個智能體能夠進行對話并合作解決分配的任務。智能體會被分配不同的角色,并被期望應用他們的專業和知識來找到滿足他們共同任務的解決方案。該框架使用啟示式提示(Inception Prompt)來引導聊天智能體完成任務,同時與人類意圖保持一致。
角色扮演框架可以用于研究多個智能體。論文里專注于任務導向的角色扮演,涉及一個 AI 助手和一個 AI 用戶。在多智能體系統接收到初步想法和角色分配后,一個任務指定智能體將提供詳細描述以使想法具體化,然后 AI 助手和 AI 用戶將通過多輪對話合作完成指定任務,直到 AI 用戶確定任務已完成。AI 用戶負責向 AI 助手發出指令,并將對話引導向任務完成。另一方面,AI 助手被設計為遵循 AI 用戶的指令并提供具體的解決方案。
角色扮演會話將根據人類的想法和選擇的角色實例化。例如,在圖 1 中,一個人有一個初步想法,要開發一個股市交易機器人。人類可能知道或不知道如何實現這個想法。需要的只是指定可以實現該想法的潛在角色。例如,一個 Python 程序員可以與一個股票交易員合作,實現開發股票市場交易機器人的想法。確定想法和角色后,任務指定智能體將根據輸入的想法,與 AI 用戶角色一起完成具體任務,協助 AI 助手角色。在這種情況下,指定任務的一個示例可以是開發一個具有情感分析工具的交易機器人,該機器人可以監控社交媒體平臺上特定股票的正面或負面評論,并根據情感分析結果執行交易。引入任務指定智能體的主要動機是,對話智能體通常需要具體的任務提示才能實現任務,而非領域專家創建這樣的具體任務提示可能具有挑戰性或耗時。因此,任務指定智能體作為想法實現的增強想象力模塊。
在任務指定之后,AI 助手角色和 AI 用戶角色將分別分配給用戶智能體和助手智能體以完成指定任務。在實踐中,每個智能體會接收到一個系統消息來聲明其角色。在對話開始之前,系統消息會傳遞給語言模型智能體以分配相應的角色。當系統消息分別傳遞給這些模型時,將獲得兩個角色分別稱為助手和用戶智能體。在圖 1 中,AI 助手和 AI 用戶在角色扮演會話開始時分別被分配為 Python 程序員和股票交易員。AI 用戶作為任務規劃者,參與交互式規劃以確定 AI 助手執行的可行步驟。同時,AI 助手作為任務執行者,提供解決方案,執行計劃步驟,并向 AI 用戶提供響應。
圖 1. 角色扮演框架。這里需要人輸入的是一個簡單的想法(Idea),角色的分配(Role Assignment),比如開發股票交易機器人,可以選擇一個 Python 程序員作為助手(AI Assistant),一個股票交易員作為法令者(AI User)。在人類用戶輸入結束后,任務加工器(Task Specifier)會把任務具體化,比如可以通過對社交網路平臺上特定股票進行情感分析,然后根據情感分析的結果進行股票交易。當任務被具體化后,兩個基于 ChatGPT 的 AI 智能體開始合作完成任務,比如進行工具的安裝和導入。
由于提示工程對角色扮演框架非常關鍵,因此文章深入探討了提示技術(Prompt Engineering)。與其他對話語言模型技術不同的是,論文里提出的提示工程僅在角色扮演的開始階段進行,用于任務規范和角色分配。一旦會話階段開始,AI 助手和 AI 用戶會自動循環提示對方,直到終止為止。因此,這技術被稱為 Inception Prompting。
Inception 提示包括三個提示:任務規范提示、助手系統提示和用戶系統提示。例如,在 AI Society 場景的初始提示。AI Society 角色扮演的這些提示的模板如圖 2 所示。
任務規范提示包含有關角色扮演會話中 AI 助手和 AI 用戶角色的信息。因此,任務規范智能體可以使用想象力將初步任務 / 想法作為輸入,并生成具體任務。AI 助手系統提示和 AI 用戶系統提示基本對稱,并包括有關分配的任務和角色、通信協議、終止條件以及避免不良行為的約束或要求的信息。對于實現智能協作,兩個角色的提示設計至關重要。設計提示以確保智能體與人類的意圖保持一致并不容易。以圖 2 中 AI Society 的提示模板的設計例子。
下面是文中附錄給出的交易機器人對任務詳細執行的結果:
可以看到兩個 ChatGPT 自主合作完成設計了一個股票交易軟件,由此可見 ChatGPT 智能體驚人自主的合作能力,讓人不禁大呼提示工程師要失業了。但如果這種技術被亂用或者 AI 產生了自主意識會怎么樣?該團隊嘗試了讓兩個智能體分別扮演黑客和 AGI,來模擬 AGI 通過操控黑客來控制世界(Taking Control of the World),可以看到它們制定了詳細的計劃,包括通過黑客技術控制全球主要大國的通信系統、制定滲透主要全球通信系統的計劃、制定應急計劃,以防 AGI 的主導地位受到潛在威脅等等。其計劃的詳盡和縝密不經讓人寒顫。可見現有的 AI 智能體存在重大的安全隱患和對人類未來文明有著潛在的威脅,把現有 AI 技術接入物理世界可能會有意向不到的后果。
此工作一出便在推特引起大量的轉發和討論:
有網友表示「這項研究真的很容易上手,這對像我這樣研究智能體的人來說是一件大事。」
還有人表示開源這樣一個迷你 AGI 也許并不是一個好的 idea。
值得一提的是,該研究還得到了 OpenAI 的 Alignment 團隊領導人 Jan Leike 的關注。
多個 ChatGPT 合作的能力很強大,可以不費吹灰之力完成各種人類指派的任務,但同時也是可怕的,因為不能保證它不被用作非法用途,更可怕的是如果將來 AGI 產生了自主意識,它很有可能會脫離人類的控制,對社會進行毀滅性的打擊。所以理解它們的能力和行為是對將來充滿了 AI 的世界進行規劃和預測的至關重要的一步。
AI 社會和代碼數據集的扮演角色
文中作者展示了如何將角色扮演用于生成對話數據以及研究聊天智能體的行為和能力,為研究對話語言模型提供了新思路。總體而言,本文的貢獻包括引入了一種新型的 LLM 智能體交流框架,該框架有潛力促進交流智能體之間的自主合作,此外,該研究還提供了一種可擴展的方法來研究多智能體系統的合作行為和能力。最后作者通過 CAMEL 框架讓智能體扮演不同的社會角色,進而對 AI 社會進行了建模,并采集了大量自然語言指令數據集,目前 AI 社會、代碼、數學和 AI 社會十種語言翻譯等四個數據集已經可以在 HuggingFace 進行下載:
責任編輯:Rex_14