“量子人工智能”研究獲新進展

2023/02/23-15:30 來源:科技日報

科技日報北京2月22日電 (記者張夢然)據(jù)英國《自然》雜志22日報道,谷歌科學家團隊改善了量子計算機的糾錯能力,演示了隨著糾錯規(guī)模增加,錯誤率反而降低的量子計算。這項工作意味著人們向可擴展的量子糾錯更進一步,使量子計算機達到以足夠低的錯誤率運行可用量子算法的水平。

  量子計算機和經(jīng)典計算機一樣,容易發(fā)生其背后物理系統(tǒng)“噪音”(或干擾)導(dǎo)致的錯誤,實現(xiàn)其潛能需要降低錯誤率。一種量子糾錯方法是用所謂“糾錯碼”,即使用一組物理量子位(量子信息單位,相當于經(jīng)典計算機的比特)形成一個邏輯量子位。這個系統(tǒng)稱為表面碼邏輯量子位,可以檢測和糾正錯誤而不影響信息,但擴展這樣的系統(tǒng)意味著操作更多量子位,這可能引入更多邏輯錯誤。為使邏輯性能隨著編碼規(guī)模增加而改善,總體的糾錯需超過增加的邏輯錯誤。

  谷歌“量子人工智能”團隊研究人員哈姆特·耐文及其同事,此次展示了一種邏輯量子位表面碼,可以在系統(tǒng)規(guī)模增大時降低錯誤率。他們建造了一個72個量子位的超導(dǎo)量子處理器,用兩種不同表面碼做了測試:一種稱為distance-5 邏輯量子位(基于49個物理量子位),另一種是較小的distance-3邏輯量子位(基于17個物理量子位)。較大表面碼展現(xiàn)出能夠?qū)崿F(xiàn)更好的邏輯量子位性能(每周期2.914%邏輯錯誤),優(yōu)于較小的表面碼(每周期3.028%邏輯錯誤)。

  研究團隊指出,還需要更多研究實現(xiàn)有效計算所需的邏輯錯誤率,但目前這項工作,向人們展示出未來量子算法開發(fā)的基本要求。

責任編輯:于翔