頭條資訊 - 為您提供最新最全的新聞資訊,每日實時更新

提升1000倍!未來計算“加速度”

科技數碼 光明網

提升1000倍!未來計算“加速度”

■記者 計紅梅

作為一種小型鳥類,玄鳳鸚鵡的大腦僅有2克重,能耗僅50毫瓦,飛行速度卻可達每小時22英裡。相比之下,無人機的板載處理器重量是它的20倍,能耗是它的350倍,充電一次卻只能飛行10到20分鐘。

雖然傳統計算架構在過去70年取得了巨大進步,但與現有的計算性能相比,大腦仍然是最無敵的計算設備。現實和未來的距離如何拉近?

“未來已來,只是分佈不均。”在近日以線上形式舉行的2020英特爾研究院開放日活動上,英特爾研究院院長Rich Uhlig援引科幻小說家William Gibson的話如此作答。

當天,該研究院集成光電、神經擬態計算、量子計算、保密計算和機器編程等前沿領域的負責人悉數到場,揭秘了他們計劃開啟未來計算、致力於1000倍性能提升的諸多顛覆性研究。

拐點已至

2004年,英特爾提出了一個宏大的目標,讓光作為連接技術的基礎。當時,他們看到,隨著計算帶寬需求不斷增長,電氣輸入/輸出(I/O)的規模無法保持同步增長,從而形成了“I/O功耗牆”,限制了計算運行的可用能源,由此開始將目光轉向光通信和硅光子技術。

十多年後,在此次活動上,英特爾研究院PHY研究實驗室主任James Jaussi斷言:“光互連和電氣互連這兩種連接方式之間已經有了一個明顯的拐點。”其主要原因有二:首先,我們正快速接近電氣性能的物理極限。如果不進行根本性的創新,高能效電路設計將存在諸多限制。其次則是由於“I/O 功耗牆”面臨與日俱增的挑戰。

為此,他首度提出了“集成光電”的概念,即通過協同集成將CMOS電路與光子技術整合起來。他認為,此舉“能夠系統性地消除成本、能源和尺寸限制方面的障礙,為服務器封裝賦予光互連的變革性能力”。

開放日上,作為英特爾在關鍵技術構建模塊方面的重大進展之一,他們最新研發的比傳統組件小1000倍的微型環調製器首次亮相。“傳統的芯片調製器佔用面積太大,並且IC封裝的成本很高。而此次開發的微型環調製器,將調製器尺寸縮小到原來的1/1000的大小,從而可以消除將硅光子集成到計算封裝中的主要障礙。”Jaussi說。

近一年多來,量子計算機成為業界關注的焦點之一。作為英特爾研究院量子應用與架構總監,Anne Matsuura在開放日上宣佈,該公司第二代低溫控制芯片Horse Ridge II已準備就緒。這標誌著英特爾在突破量子計算可擴展性方面又取得一個裡程碑式成果。

可擴展性是量子計算的最大難點之一。據介紹,在2019年推出的第一代Horse Ridge控制器的創新基礎上,Horse Ridge II支持增強的功能和更高集成度,以實現對量子系統的有效控制。新功能包括操縱和讀取量子位狀態的能力,以及多個量子位糾纏所需的多個量子門的控制能力。

“我們正在逐步實現商用級量子計算的願景。”Matsuura說。不過,她坦言,目前僅有100個量子位,甚至數千個量子位的量子計算系統,無法實現商用化這一目標。“我們需要開發包含數百萬個量子位的全棧商用級量子計算系統,才能達到實用性的目標。”

釋放數據潛力,安全性是重要考量因素之一。為了解決這一問題,英特爾一直在推動保密計算的發展。英特爾研究院安全智能化項目組首席工程師Jason Martin介紹了其最新的軟件保護擴展技術。它可以將保密性、完整性和認證功能整合在一起,以確保使用中的數據安全無虞。不過,這一技術只能保護單臺計算機上的數據。而為了支持更多機構在協作中安全地使用敏感數據,英特爾和美國賓夕法尼亞大學佩雷爾曼醫學院正在合作探索採用聯邦學習技術,消除不同數據所有者在整合數據時所遇到的障礙,在獲得洞察的同時確保數據隱私,以追求計算性能1000倍的提升。

此外,Martin透露,他們還在研究一種不需要解密數據的方法,即同態加密技術。它允許應用在不暴露數據的情況下,直接對加密數據執行計算操作。然而,這一技術也面臨一些挑戰,如數據處理的成本會隨著數據的增加而劇增,使得同態加密未能得到廣泛使用。“我們希望未來普及這項技術。為此,我們正在研究新的軟硬件方法,並與合作夥伴和標準機構展開合作。”Martin說。

冰山一角

在展望第三代人工智能發展路徑時,“類腦”是學術界提出的重要思路之一。2017年,英特爾推出首款神經擬態研究芯片Loihi,在神經擬態硬件的開發上邁出重要一步。

時隔幾年,英特爾研究院神經擬態計算實驗室主任Mike Davies宣佈,該項研究很快將進入下一個階段,即攜手生態系統合作夥伴一同探索實際應用,擴大該技術的適用範圍。

Davies表示,通過對神經擬態系統上的應用進行持續開發、原型設計和測試,該公司和合作夥伴已獲得了越來越多的成果,並顯示在各種工作負載中神經擬態計算都能帶來性能的一致性提升。例如,埃森哲測試了在Loihi芯片上識別語音命令的能力和在標準圖形處理單元(GPU)上識別語音命令的能力,發現Loihi不僅達到了和GPU類似的精度,而且能效提高1000倍以上、響應速度快200毫秒。

他坦言,短期內,由於成本問題,神經擬態計算只適用於邊緣設備、傳感器等小規模設備,或是對成本不敏感的應用,如衛星、專用機器人等。“隨著時間的推移,我們預計內存技術的創新將降低成本,讓神經擬態解決方案擴大適用範圍,運用於各種需要實時處理數據但受限於體積、重量、功耗等因素的智能設備。”Davies說。

和神經擬態計算一樣,機器編程是此次開放日上英特爾展示的重點之一。當天,英特爾研究院機器編程研究主任及創始人Justin Gottschlich宣佈,該公司推出了機器編程研究系統ControlFlag,它可以自主檢測程序代碼中的錯誤。“雖然仍處於早期階段,這個新穎的自我監督系統有望成為一個強大的生產力工具,幫助軟件開發者進行耗時費力的Debug。在初步測試中,ControlFlag利用超過10億行未標記的產品級別的代碼進行了訓練並學習了新的缺陷。”

展望未來,我們是否可以設想一個人人都能創建高質量軟件的未來?Gottschlich的回答是肯定的。通過構建機器編程的三大支柱,即意圖、創造和適應,他們希望未來能夠實現這一藍圖:人類向機器表達他們的意圖,機器就會自動創建並完成該意圖所需要的所有軟件。

“我們剛剛介紹的這五項正在進行的顛覆性研究項目,只是冰山一角。在追求1000倍性能提升目標的路上,我們還會有更多的成果和大家分享。”Uhlig最後說。

來源:《中國科學報》

轉載請超鏈接註明:頭條資訊 » 提升1000倍!未來計算“加速度”
免責聲明
    :非本網註明原創的信息,皆為程序自動獲取互聯網,目的在於傳遞更多信息,並不代表本網贊同其觀點和對其真實性負責;如此頁面有侵犯到您的權益,請給站長發送郵件,並提供相關證明(版權證明、身份證正反面、侵權鏈接),站長將在收到郵件24小時內刪除。
加載中...