1981 年,諾貝爾獎得主理查德·費曼(Richard Feynman)在美國麻省理工學院的第一屆計算物理會議上提出了“量子計算”的概念,自此拉開了人類探索量子計算可行性的序幕。
在接下來的幾十年里,量子計算主要處于原理驗證階段。那時的研究范式以經典模擬為主:科學家們先在經典計算機上模擬所提出的量子算法,再在量子設備上運行同樣的算法,并通過對比兩者的結果來驗證量子設備的正確性。
2019 年成為量子計算發展的關鍵轉折點。這一年,谷歌量子人工智能團隊首次宣布實現了“量子優越性”(亦稱“量子霸權”)。他們利用自研的“懸鈴木”(Sycamore)53 量子比特超導芯片完成了隨機電路采樣實驗。在發表于 Nature 的論文中,團隊聲稱該實驗在短時間內完成了傳統超級計算機約需 1 萬年才能完成的計算。
雖然此后不斷有研究改進經典模擬方法,大幅縮短了模擬時間,但這一里程碑式實驗傳遞出的核心信號是明確的:隨著量子硬件的快速進步,經典計算機的“暴力模擬”逐漸力不從心。要知道,在暴力模擬的情況下,一臺普通筆記本電腦僅能模擬約 25 個量子比特,即便是世界最強的超級計算機也只能逼近 45 比特。
自 2019 年以來,量子技術迎來高速發展。谷歌、IBM、微軟、英偉達等科技巨頭紛紛加碼布局,量子比特的數量和質量持續提升,系統相干時間不斷延長。我們一方面越來越接近夢寐以求的容錯量子時代;另一方面,必須正視一個現實:每增加一個量子比特,模擬難度便呈指數增長。這意味著經典計算機難以再有效模擬這些高性能、大規模的量子處理器行為。
更棘手的問題在于:雖然量子硬件發展迅猛,但制造和維護成本極高,全球真正可用的高質量量子計算機依然屈指可數。結果就是,能用到這些頂尖設備的人非常少,算力資源被集中在少數機構手里。對大多數科研人員來說,即便有再好的算法點子,也很難真正跑在先進的量子計算機上進行驗證,這就像出現了一種“算力孤島”。
在這樣的背景下,一個關鍵問題浮現出來:研究者們該如何理解和預測自己設計的量子算法在這些動輒數十、上百量子比特電路的表現?傳統辦法,比如量子斷層掃描或用經典計算機模擬,都已難以為繼:要么耗費海量資源,要么根本跟不上電路規模的指數級增長。于是,量子計算的發展反而面臨一個悖論——它越是前進,越暴露出自己的“阿喀琉斯之踵”。
近期,新加坡南洋理工大學與富士康量子研究中心團隊合作提出了一種新范式:它不像傳統模擬那樣完全與量子資源孤立,而是用 AI 模型學習量子計算機的行為。該研究創新性地從理論上證明了“有界門量子電路”中線性物理量的可學習性規律,并提出了一種同時兼顧樣本效率和計算效率的新算法。
簡而言之,在量子機器學習、量子化學、量子動力學仿真等一大類任務中,研究團隊讓 AI 模型充當量子計算機的代理(Agent)。一旦確定了量子算法的設計,這個 AI 模型只需從量子計算機獲取極少量的結果,就能完成學習。之后,它便能夠在完全不再依賴量子硬件的情況下,給出與真實量子計算機幾乎一致的預測結果。
此外,如果研究者認為 AI 模型給出的結果與量子計算機還存在一定差距,可以將 AI 模型給出的結果作為初始猜想,再在真實的量子計算機上運行做微調。通過這樣的方式,可以顯著減少量子資源的使用。
![]()
圖丨杜宇軒(來源:杜宇軒)
該論文第一作者兼通訊作者、南洋理工大學助理教授杜宇軒對 DeepTech 表示:“這項工作的意義在于,我們提出的 AI 模型可以在現有的 CPU 或 GPU 上高效運行。而這些算力依托成熟的云服務體系,已經能夠在全球范圍內便捷獲取。這不僅大幅降低了量子計算的使用成本,也讓更多研究人員能夠通過這種 AI 代理來參與量子研究。”
審稿人之一對該研究評價稱:“我相信對于學習量子電路的知識,是一項有價值且高質量貢獻的工作。”
日前,相關論文以《針對有限門量子線路線性性質的高效學習》(Efficient learning for linear properties of bounded-gate quantum circuits)為題發表在 Nature Communications[1]。南洋理工大學助理教授杜宇軒是第一作者兼通訊作者,富士康研究院院長謝明修(Min-Hsiu Hsieh)和南洋理工大學教授陶大程擔任共同通訊作者。
![]()
圖丨相關論文(來源:Nature Communications)
這項研究最初的構想源于 IBM 于 2023 年發表在 Nature 發表的一項工作。IBM 聲稱,其所開發的量子計算機實現了“實用性”,即在解決多體物理任務時,量子計算機已經達到了一定高度,經典計算機很難“暴力模擬”。即便使用比較高端的模擬量子計算機的算法(比如張量網絡),也達不到量子計算機的精度。
這篇論文發表后,引發了業內的廣泛討論。有人指出,當時對比的經典方法并非最優,也沒有基于特定任務做相關改進。隨后,發表在 Science Advances 以及 Physical Review Letters 等期刊的論文指出,加入先驗信息可設計出比較高效的算法,至少能與量子計算機的模擬結果相媲美。
杜宇軒指出,從這種爭論中可以看出,量子計算機發展到 2023 年之后,領域內已經不再滿足于 2019 年谷歌在合成任務上演示的量子優越性,而是真正想在實際問題上做“劃時代的工作”,而且希望比經典計算機能耗更低、資源更節省以及精度更高。
![]()
(來源:Nature Communications)
這也引發了研究團隊的思考,于是研究人員提出:是否可以通過獲取一些量子計算機信息的方式來解決這個問題?
研究團隊進一步探討了這一新方法的“邊界”,想確認它到底能不能真正解決任意復雜量子電路中關鍵物理量的學習問題。理論結果表明,即便是大規模的量子系統,也可以用多項式時間或多項式樣本量學習出來。
但與此同時,他們也證明了一個負面結果:雖然對于樣本量來說比較高效,但對于時間成本,某類問題可能需要指數時間。
![]()
(來源:Nature Communications)
于是他們調整了研究思路,通過構建算法驗證了在實際場景下,該方法仍然高效。杜宇軒解釋說道:“實際場景是在很多量子化學問題或量子人工智能模型問題上,只要滿足數學上的平滑條件,就可以用多項式時間與樣本量學習出來。我們做了大量實驗來論證這一點,結果也較為理想。”
![]()
(來源:Nature Communications)
這項研究中關注的重點是量子化學和量子機器學習類問題,研究團隊在這一新范式下邁出了扎實的第一步。論文發表僅三個月后,成果進展又更進一步:他們基于河南省量子信息與量子密碼重點實驗室黃合良副教授研制的國產自研 20 量子比特超導芯片,結合改進的 AI 代理模型,成功實現了非平衡 Floquet 對稱性保護拓撲相。這種“非平衡拓撲相”是一類能在外部周期驅動下保持穩定的特殊量子態,它的實現為未來更穩健的量子計算和新型量子材料研究創造了新的可能性。
![]()
(來源:https://arxiv.org/pdf/2507.17470)
研究人員希望在未來的研究中,更深入地探索 AI 范式是否能權衡量子計算稀缺性的問題。比如在算法層,如何進一步改進 AI 模型從而大幅超越經典模擬器的極限,成為研究百萬量子比特計算機的新范式;在應用層,該方法是否能夠加速各類量子算法的設計,早日讓量子計算在制藥、材料、金融等領域獲得實用性。
目前,杜宇軒教授課題組正在招募優秀本科生、碩士生、博士生和訪問學者,歡迎有興趣的同學共同探索量子計算與人工智能交叉領域的前沿研究。
參考資料:
1.Du, Y., Hsieh, MH. & Tao, D. Efficient learning for linear properties of bounded-gate quantum circuits. Nat Commun. 16, 3790 (2025). https://doi.org/10.1038/s41467-025-59198-z
2.https://yuxuan-du.github.io/
3.Liao, W., Du. Y., Wang, X., Tian, T., Tao, D., Huang, H., Demonstration of Efficient Predictive Surrogates for Large-scale Quantum Processors, arXiv:2507.17470 (2025). https://arxiv.org/pdf/2507.17470
運營/排版:何晨龍、劉雅坤
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.