四年之前,谷歌工程師曾誇耀自己實現了「量子霸權」,通過實驗表明其53量子比特的Sycamore量子計算系統解決了傳統超級電腦無法解決、或者需要很長時間才能解決的問題。但當時谷歌的說法受到了量子領域眾多競爭對手的批評,IBM等廠商紛紛表示谷歌選定的任務不夠複雜,完全可以通過傳統系統在更長的時間內加以解決。
但量子霸權的承諾太過誘人,其本質在於量子科學家和研究人員將攻克一系列當前尚無法解決的難題,進而為硬體和軟體供應商們開闢出前途光明、潛在利潤豐厚的全新業務增長領域。正因為如此,這項工作必須繼續下去,哪怕迎著冷眼與嘲笑。
於是谷歌日前再次發表研究成果,對量子霸權舊事重提。此次研究表明下一代Sycamore系統(擁有70個量子比特,搭載的量子處理器擁有2.41億倍於上代處理器的算力)將正式實現量子霸權。具體來講,它所能即時完成的計算任務即使是在橡樹嶺國家實驗室的大型1.68百億億次「Frontier」系統上,也需要47年才能完成。
谷歌公司在今年4月ArXiv論文預發表網站上發布的文章綜述中,正式提出了這項關鍵性研究目標。但正文直到本月才開始正式撰寫,谷歌研究人員稱「量子電腦有望執行經典電腦所無法處理的任務」,並補充稱通過此項實驗,「我們用改進後的經典方法預估了計算成本,並證明我們的實驗確實在算力方面超越了現有經典超級電腦。」
量子計算已經是個被討論了幾十年的老話題,但目前我們距離實用層面的成果仍有很長的距離。也許還要再等十幾年時間,我們才能真正迎來擁有百萬甚至更高量子比特規模的全功能、強糾錯量子計算系統。而且這還沒有考慮到其面臨的其他現實挑戰,包括如何將量子系統的成本和計算時間控制在具備經濟效益的水平上,如何為量子系統開發軟體,以及如何培養出足夠的技術人員來承擔量子系統的構建、部署和管理工作。
另外還有如何使用的問題,至少在正式面世之初,多數用戶肯定搞不清要怎麼使用量子計算系統。它們應當獨立存在,還是運行在雲端?抑或是作為經典加量子混合系統中的組成部分,負責承擔傳統超級電腦所無法處理的特定工作負載?此外,量子計算行業可能還需要選擇合適的供應商,以多種不同模式創建各種量子比特(即驅動量子系統的核心引擎)。
很明顯,量子計算在實踐落地之前還有很多工作要做。除了谷歌、IBM、微軟、AWS和英特爾等IT巨頭之外,其他眾多體量較小的企業和初創公司也紛紛投身其中。甚至來自其他行業的組織也在量子計算領域開展工作,比如金融服務公司富達就在其應用技術中心內研究量子技術。雖然谷歌等大廠公布的僅僅是漸進式成果,但至少表明量子計算正不斷取得進展,也逐漸指明了接下來的技術探索方向。
IBM和加州大學伯克利分校上月推出的聯合研究就是其中一例。研究結果表明,即使仍處於實驗階段,量子系統仍可表現出超越傳統系統的處理能力。合作團隊的科學家們在IBM的127量子比特「Eagle」處理器上對複雜的物理模擬工作負載進行了計算。但由於只是概念驗證,所以實驗中並未引入幫助量子比特和經典計算系統抑制潛在噪聲的容錯量子電路(Eagle處理器尚無法支持此電路)。
研究人員們在報告中寫道,「我們報告了在有噪聲127量子比特處理器上的實驗結果,並演示了對電路體積的準確期望值的測量,其規模已經超出了經典架構的暴力計算極限。我們認為,這代表著量子計算在前容錯時代也同樣擁有實際價值。」
谷歌的研究目的也與藍色巨人類似,研究人員還專門為此撰寫了「讓量子系統和經典架構斗得再狠一點」的文章。
他們在文中提到,「最近的RCS(隨機電路採樣)實驗凸顯出計算複雜性與噪聲之間的相互作用,而這一切的開端正是2019年的53量子比特Sycamore量子處理器。從那時起,先後有多次類似實驗嘗試提升系統規模、降低噪聲水平,而經典算法一邊也取得了不少實質性進展。」
研究人員們認為,此次研究主要是為了解決兩個核心問題:「在實踐層面,有噪聲的量子處理器所使用的指數大希爾伯特空間,其區域是否存在可明確定義的邊界?更重要的是,我們能否建立一個可直接探測這些邊界的可觀察實驗對象?」
研究人員在第二代Sycamore系統上進行了RCS實驗,該系統包含70個具有24周期的量子比特,並確定了由噪聲和量子力學間相互作用所推動的所謂「不同相位」。研究人員使用「具有交叉熵基準的有限尺度研究(XEB)」確定了各相位的邊界,證明量子力學和噪聲間的相互作用可以導致相位變化。
谷歌指出,此次實驗的結果證明,下一代Sycamore量子系統的性能將明顯優於全球首個獲得認證的百億億次超算系統Frontier。後者是一套以HPE Cray EX235a系統為基礎的龐然大物,搭載大量定製化「Trento」Epyc CPU和「Aldebaran」 Instinct MI250X GPU加速器。該系統共有近870萬個核心,採用HPE的Slingshot-11互連,整體性能高達1.194百億億次。
根據谷歌的研究結論,Frontier需要6.18秒才能完成53量子比特Sycamore系統能夠即時完成的同一計算任務。而與擁有70量子比特的下一代Sycamore系統相比,這個數字將迅速擴大至47.2年。研究人員們寫道,實驗表明即使是有噪聲的量子系統,其在運行某些計算時的速度也經遠超當前最強大的經典超級電腦,這也帶來了「關於量子力學如何與噪聲相互作用的直接見解」。他們在論文中寫道,「觀察到的相位邊界為有噪聲量子設備能夠正確發揮計算能力的7種狀態提供了定量指導」。
但也必須承認,目前的量子領域仍然面臨著前文提到的一系列挑戰。研究人員們在文中寫道,「儘管RCS目前已經取得了成功,但展望未來,想在短期之內為有噪聲量子處理器尋找實際用例仍是個艱巨的挑戰。」
這樣的論斷,也基本響應了今年5月阿貢國家實驗室環境與生命科學計算副實驗室主任Rick Stevens的觀點,他呼籲對HPC領域的一切議題都應保持極大的耐性。這既包括開發十萬億億次(百億億次的1000倍)和量子系統等前沿成果,也適用於阿貢國家實驗室今年打算借HPE之手建設的另一套百億億次系統「Aurora」(不同於Frontier,Aurora將基於英特爾的Sapphire Rapids至強SP處理器加Ponte Vecchio Max系列GPU)。
Stevens還在一次網路碎上表示,Frontier前後花了十五年時間才上線,而十萬億億次和量子系統距離真正實現可能同樣還有15到20年時間。
很明顯,HPC永遠是一條曲折而漫長的征途。
他總結道,「這是一場持久戰,沒有什麼捷徑可走。如果大家只關註明年就能實現和落地的東西,那HPC就不適合你。但如果願意在十年或者二十年的周期上思考問題,那HPC就是你的最佳選擇……目前我們還處於早期階段,接下來還有很多挑戰要面對。所以我們必須認真思考,十年之後的高性能計算會是什麼樣子?二十年後又會是什麼樣子?」