(資料圖片)
谷歌“量子人工智能”制造的兩代懸鈴木處理器(圖源:谷歌“量子人工智能”團隊)。施普林格·自然 供圖
中新網北京2月23日電 (記者 孫自法)國際著名學術期刊《自然》最新發表一篇量子計算論文,研究者演示了隨著糾錯規模增加錯誤率降低的量子計算,這項研究工作意味向可擴展的量子糾錯進展更進一步,以使量子計算機達到足夠低的錯誤率,從而運行可用的量子算法。
該論文介紹,量子計算機和經典計算機一樣,容易發生其背后物理系統“噪音”(或干擾)導致的錯誤;實現其潛能需要降低錯誤率。一種量子糾錯方法是用糾錯碼(error-correcting codes),使用一組物理量子位(量子信息單位,相當于經典計算機的比特)形成一個邏輯量子位。這個系統稱為表面碼邏輯量子位,可以檢測和糾正錯誤而不影響信息,但擴展這樣的系統意味著操作更多量子位,這可能引入更多邏輯錯誤。為使邏輯性能隨著編碼規模增加而改善,總體的糾錯需超過增加的邏輯錯誤。
谷歌“量子人工智能”的一個完全組裝量子系統的照片(圖源:谷歌“量子人工智能”團隊)。 施普林格·自然 供圖
在本項研究中,谷歌“量子人工智能”(Quantum AI)團隊展示了一種邏輯量子位表面碼,可以在系統規模增大時降低錯誤率。他們建造了一個72個量子位的超導量子處理器,用兩種不同表面碼進行測試:一種稱為distance-5邏輯量子位(基于49個物理量子位)和一種較小的distance-3邏輯量子位(基于17個物理量子位)。較大表面碼展現出能夠實現更好的邏輯量子位性能(每周期2.914%邏輯錯誤),優于較小的表面碼(每周期3.028%邏輯錯誤)。
該研究團隊總結指出,今后還需要更多研究來實現有效計算所需的邏輯錯誤率,但他們最新完成的這項工作展示了量子計算未來開發的基本要求。(完)
責任編輯:Rex_23