(資料圖片僅供參考)
隨著AI的應用越來越廣泛,諸多問題開始顯現,首當其沖的就是內容真實性。AI作為工具并不具備判斷力,其生成的結果是基于數據投喂和算力養成的綜合產物,那么,這些數據是否真實合法,直接決定了AI是否能大規模應用。
日前,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),向社會征求意見。《征求意見稿》明確“國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源”,并就生成式人工智能服務商的準入,算法設計、訓練數據選擇、模型、內容,以及用戶個人隱私、商業秘密等方面提出了相關要求。
其中,有兩條內容強調了真實。一則是在第四條“提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗”中表示,“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息”。另一則是在第七條“提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責”中表示,“能夠保證數據的真實性、準確性、客觀性、多樣性”。
這意味著,AIGC的研發平臺不但要保證投喂的數據資源真實可靠,同樣要對生成的內容負責,這無疑是一項巨大的挑戰。
事實上,在全球AI賽道的頂級選手中,還沒有任何一個平臺對AI生成結果的真實性進行擔保。此前,谷歌推出的人工智能聊天機器人巴德(Bard)與ChatGPT對壘,卻因巴德犯了事實錯誤,導致谷歌的股價暴跌,一夜之間市值蒸發約1056億美元。微軟則在一份免責聲明中表示:“必應是由人工智能驅動的,因此有可能出現意外和錯誤。”
對生成式AI研發者而言,確保結果真實的難度之大可想而知。筆者認為,在研發、實驗階段,應該允許AI不斷試錯、修正、完善,但隨著生成式AI作為工具進入生產領域,開始進行搜索、繪畫、問答,甚至編程、視頻生成等工作,那么確保真實就應該是基礎門檻。
換句話說,AI要搶人類的工作,從底層模型起就先要解決是否真實準確的問題。如果這一問題還未有定論,那么研發平臺應該審慎向大眾層面推出新品,更不應草率地將AI運用于商業環境中。
如今,全球基于AI的創業公司如雨后春筍般涌現,僅在3月份就有近10款AI視頻生成器誕生。輸入幾個關鍵字就能獲得一段文字、一張圖片甚至一個視頻,這無疑體現了科技的魅力。但部分企業為了追風口就倉促推出新品,導致產品質量良莠不齊,一些產品生成的內容滑稽可笑,更有一些產品生成的內容存在虛假。這類“深度造假”的內容一旦傳播開來,極易引發社會信任危機。
在筆者看來,面對新技術,我們既要抓住機會、勇于攀登,也不能回避技術發展帶來的各類安全風險和倫理挑戰,需構建合理規范的數字規則,做“負責任的”人工智能,立好規矩明確紅線,防范潛在風險,推動科技向善。
責任編輯:Rex_19