AI“入侵”芯片制造:將AI做到芯片“骨子里”,主流廠商如何布局?
有一個很有趣的現象:人工智能正在幫助推動人工智能芯片的進步。早在2021年6月,谷歌就利用AI來設計其TPU芯片。谷歌表示,人工智能可以在不到6小時的時間內完成人工需要數月時間完成的芯片設計工作。《Nature》的一篇評論稱這項研究是一項“重要成就”,并指出此類工作可以幫助抵消摩爾定律的終結。除此之外,英偉達已經開始使用人工智能來有效地改進和加速 GPU 設計;三星也已經談論到了使用人工智能設計芯片。
但這遠不是人工智能輔助芯片的唯一應用,AI技術正滲透到更多芯片業的核心環節,其中在制造這一芯片產業鏈的關鍵環節,AI也在悄然發力。
芯片制造環節,良率越來越受到考驗
現在幾乎所有的應用包括5G、物聯網、汽車、數據中心等的實現與發展都建立在更高性能、更低功耗、更大算力的芯片的基礎之上。芯片的需求大幅提升,而芯片的供應卻跟不上需求,提升現有產品的良率是業內公認的有效措施。
然而,良率的提升卻給芯片設計商和制造商都帶來了很大的挑戰。
制造是半導體產業鏈的關鍵一環。整個制造過程主要分為八個步驟:晶圓加工 - 氧化 - 光刻 - 刻蝕 - 薄膜沉積 - 互連 - 測試 - 封裝,每個芯片的制造步驟又需要數百個工藝。芯片生產制造的周期動輒兩三個月,生產過程中產生的數據量龐雜,涉及的參數變量繁多,任何一點微小的變化都能影響到最終芯片的良率。
遵循著摩爾定律的工藝制程演進是芯片實現高性能計算最為有效的途徑之一,也是產業追逐的方向。而隨著芯片工藝來到更先進的5nm、3nm,芯片設計復雜度呈幾何倍數增加,生產流程的不斷加長,芯片的制造變得極其復雜與精密,良率變得極具挑戰。據半導體設備供應商巨頭應用材料公司表示,從2015年到2021年,芯片制造的工藝步驟的數量增加了48%。相比成熟節點,先進節點的基準良率也越來越低。
而在半導體的商業化進程中,良率直接關系到芯片的產量、生產成本與企業的盈利能力。所以說,僅僅通過芯片工藝技術的改進來提高PPA變得越來越困難,而且從性價比來看,芯片流片的費用越來越貴,只有極少數的芯片公司才能負擔得起。
因此,既要提升芯片的良率又要在經濟上可行,必須要多管齊下,探索創新的方法。在如今這個高度自動化的時代,引入人工智能/機器學習等技術,推動芯片的制造流程,提升芯片的良率,進而幫助我們快速彌合算力供需之間的差距。
AI的強勢出擊
芯片制造是世界上最昂貴的生產工藝之一。芯片產量決定了諸如英特爾、三星、臺積電等晶圓廠商的成敗。他們不惜投入大量資源來使晶圓廠全天候運營,以實現長期利潤最大化。
半導體制造商需要依靠掃描、測試和診斷來幫助故障分析以解決良率問題。后端的缺陷檢測無疑是提升芯片良率的一大“把關者”。現在大多數先進的SoC使用了極小的制造工藝,有的甚至引入EUV光刻技術,對制造商來說更加難以定位芯片上的微小故障和缺陷;并且在制造3D結構和執行復雜的多圖案化步驟時,其中一些小的差異會累積以產生良率抑制缺陷,如果其中的一些微小的差異被延遲檢測到,那么之后進行的所有流程步驟基本上都是浪費時間和金錢。他們發現缺陷的時間越長,損失的錢就越多。
為了解決這一行業難題,半導體設備供應商應用材料(Applied Materials)將人工智能融入到晶圓檢測流程,從2016年開始應用材料就使用ExtractAI技術開發Enlight系統,于 2020 年推出了新一代Enlight光學半導體晶圓檢測機,該檢測設備引入了大數據和AI技術。Enlight 系統只需不到一個小時就可以繪制出晶圓上數百萬個潛在缺陷。
應用材料表示,結合他們的Enlight光學檢測、ExtractAI技術和SEMVision eBeam審查功能,他們解決了最困難的檢測挑戰:將影響良率的缺陷與噪聲區分開來,還可以實時學習和適應工藝變化。而且通過生成大數據,Enlight系統將捕獲關鍵缺陷的成本降低了3倍。這將使晶圓廠可以比以往更快地接收更多可操作的數據,從而降低擁有成本并加快產量和上市時間。目前,這些最新的工具集已經安裝在多個晶圓廠中,這些晶圓廠都在使用它來縮短最新技術的良率。
應用材料公司表示,Enlight是其產品線中第一個使用人工智能來改進生產過程的系統,還有更多人工智能增強系統正在籌備中。
檢測設備是后期制造環節提升良率中的一個措施,而如果能在IC開發的物理設計階段就采取必要的措施,將良率的把控逐步轉移到芯片前端設計,來確保能夠準確地制造設計,那么就能提高產量并防止產品交付給客戶后可能出現的缺陷。這在行業內稱之為DFM(Design-for-Manufacture),該概念幾乎存在于所有工程學科中。
在芯片設計端的DFM,EDA供應商們正致力于將各種AI功能集成到工具流中。
舉例來看,西門子EDA的Calibre SONR工具就內嵌了機器學習引擎TenssorFlow,通過將并行計算和ML技術融入到EDA工具中去,使得EDA工具具有更快的運行速度。Calibre物理驗證平臺涵蓋了Signoff級驗證的Layout、Mask以及芯片制造過程中所有驗證步驟。Calibre的產品線還在不斷擴充,通過產品之間的互補優勢真正做到從芯片設計端一路延伸至芯片制造端。這不僅能夠幫助設計人員可以胸有成竹地實施物理驗證和交付設計,并能大幅提升流片良率,縮短芯片產品上市時間并加快創新速度。
仿真一直是芯片設計師的痛,隨著先進工藝和超低電壓的發展需求,仿真領域面臨著數據量大、時序庫提取時間長、暴力窮舉太慢、STA工具做內差法精度不夠等痛點,而如果利用機器學習算法,通過大數據的方式分析已有數據庫,通過多個表面模型互聯,構建一個多維模型,??通過這樣模型的創建去推測?出一個新的?? Corner下的數據庫。這樣的方式與SPICE仿真或者內差法相比,可以說是跨代競爭,無論是速度還是精度,都有巨大的優勢。西門子EDA推出的Solido機器學習技術,能夠對單一時序庫文件的提取加速近百倍(相較傳統SPICE方式),對整體時序庫提取速度提升2到3倍,同時還可以把精度控制在可接受的范圍之內。
驗證也在伴隨著SoC的復雜而日益復雜和困難的一項工作,驗證工作在芯片研發中所占的比重也越來越大,因為如此繁重的驗證工作必須保證百分之百正確才能確保流片的成功。關于這個挑戰,也可以交給AI,機器學習被用來自動選擇解析器策略,以執行西門子EDA OneSpin中與形式驗證有關的斷言證明。
隨著工藝和設計向前推進,良率丟失的根因變得越來越復雜,故障隔離技術面臨挑戰,提高診斷分辨率成為減少良率爬坡時間的首要任務。在這方面,西門子EDA 的Tessent Diagnosis的版圖感知和單元感知技術,結合Tessent YieldInsight的無監督機器學習技術,即Root Cause Deconvolution(簡稱為RCD),可以找到最可能的缺陷分布并移除低概率懷疑點,從而提高分辨率和準確性。目前格芯、UMC和中芯國際等都在使用該技術來快速的定位到影響良率的準確根因并快速實現良率提升。
可以看出,借助AI/ML技術,EDA工具越來越成為解決良率爬升的利器。人工智能/機器學習已經可以在先進工藝節點良率爬升、機器學習技術在標準單元變量感知型時序庫特征提取、在量產化診斷驅動良率分析中的應用、顯著縮短 ASIC/FPGA 驗證周期等自動化IC設計新領域,都能發揮強大的作用。
將AI能力做到芯片“骨子里”
今天,幾乎所有硬件設備都被冠以“智能”二字作為命名開頭,而相比終端廠商在軟件和算法層面做的優化,高通是真的“把AI做到芯片骨子里去了”。
畢竟,高通是一家做芯片的公司,而這種從芯片底層開始建立的AI技術優勢,也正是高通所獨有的優勢之一。
正如前不久發布的第二代驍龍8芯片,首先從芯片本身的AI性能及能效比來看,就十分過硬,這也是實現一切出色AI體驗的基石。
沒有一個芯片做“好底子”,體驗只能是“空中樓閣”。
這次在芯片的硬件架構設計層面,高通的AI引擎有著不少技術創新,比如高通在Hexagon處理器中加入了專用的供電系統,進一步提升芯片處理的能效比。
此外,Hexagon處理器支持了微切片推理,針對比較復雜的神經網絡推理任務,Hexagon處理器可以把單個神經網絡拆分成幾萬個微Tile,然后把它們分別分配到張量、標量、向量加速器上,從而提高整個神經網絡的推理速度。
高通微切片推理示意圖
而Hexagon處理器中核心的張量加速器單元則將尺寸翻了一倍。
在這些升級點的共同作用下,這一代高通AI引擎的AI性能提升了4.35倍,能效比也進一步提升了60%,可以更加高效地運行Transformer網絡,進而提升在計算機視覺、實時轉錄、情感分析、實時翻譯、自然語言處理這些我們幾乎每天都要用到的功能中的表現。
值得一提的是,這次新一代驍龍AI引擎還首次支持了INT4,與目前行業中能夠做到的INT8相比,功耗進一步降低了60%,但性能卻提升了90%。
根據高通實測,這樣的能效比提升,可以明顯提升第二代驍龍8在自然語言處理、超分辨率、人臉檢測、背景虛化等常用場景中的實際性能表現。
除了Hexagon處理器,在高通AI引擎中的傳感器中樞里,高通還直接新加入了一個AI處理器,讓傳感器中樞的整體AI性能翻倍,而日常手機對于我們使用中任何場景的檢測、感知,幾乎都離不開這一中樞模塊。
不僅是硬件層面打好了基礎,在軟件以及開發者生態方面,高通這次也是做足了功課,讓這顆AI芯片的能力可以更好地在實際應用中發揮作用。
就在今年6月,高通發布了自家首個統一的高通AI軟件棧(Qualcomm AI Stack),我們可以形象的將其理解為高通AI開發“百寶箱”,需要什么能力,開發者便可以從中快速獲取。
實際上,高通將所有業務線的AI軟件功能訪問權限,集成在了一個統一的軟件棧中,來提供跨智能網聯終端的完整解決方案,來便利開發者進行面向不同智能終端的AI模型和軟件遷移以及開發。
從豐富的AI模型庫和模型開發工具、支持不同類型的框架、支持高通AI引擎Direct、支持不同的runtimes,再到支持分析器和仿真工具,基本上開發者們需要的技術、工具和接口都能在其中找到。
用更直觀的話來說就是,高通讓開發者和客戶可以根據自己的實際需求進行模型的開發和優化,“一次開發,就可以將解決方案跨高通所有產品線進行遷移”也成為了高通在AI軟件領域的獨特優勢之一。
從硬件設計、軟件算法到開發者生態,高通在發布會上說的“專為AI設計的芯片”絕非虛言,高通這次是鐵了心要把AI技術刻在芯片的骨子里。
在移動芯片產業技術創新遇到瓶頸的當下,高通選擇用AI技術來建立新的移動芯片標準,將技術發展推向了一個新的節點。
主流芯片廠商加碼邊緣側AI技術
隨著人工智能重心不斷向邊緣側遷移,越來越多芯片廠商開始加強邊緣側產品的開發布局。本次大會上,高通便積極推動終端側AI的普及與生態合作。高通產品管理副總裁Ziad Asghar表示,高通致力于通過提供高效的硬件、算法和軟件工具,持續推動性能功耗比提升。以驍龍8+支持的第七代高通AI引擎為例,在既定功耗下,其相比前代將AI能力提升了一倍以上。
面對英偉達、英特爾等國際廠商在云端AI芯片上的競爭優勢,很多國內廠商也選擇在邊緣AI芯片方面取得突破,如華為推出的昇騰系列AI處理器、昆侖芯科技推出的昆侖芯系列芯片、阿里平頭哥推出的含光系列AI芯片等。
由中國科學院自動化研究所和華為聯合開發的全球首個三模態大模型“紫東太初”,獲得本屆大會的最高獎項SAIL獎,便是基于昇騰AI軟硬件平臺打造。當前AI技術存在“一專一能”、小樣本學習能力欠缺、跨模態語義鴻溝的痛點,“紫東太初”大模型通過跨模態多任務自監督學習,有望解決AI應用中的長尾問題。
人工智能視覺感知芯片公司愛芯元智也展示了全系列端側邊緣側AI芯片及在智慧城市、智慧交通等領域應用解決方案。近年來,邊緣側AI技術的引入,為圖像、視頻畫質處理帶來重要提升作用,如在夜晚暗光場景下智能檢測車輛盲區的人、車、騎行者、路沿、欄桿等障礙物,進行預警及報警等,顯示了邊緣側AI的應用前景。
結語
通過各個領域的芯片廠商的創新,人工智能技術已經在很多領域顯示出其優勢,應用AI不僅可以大幅縮短芯片設計所需時間,芯片缺陷檢測的時間,降低芯片設計公司的人工成本等,還能有效滿足市場對集成電路復雜程度的需求。利用人工智能技術來幫助設計和制造芯片已經成為大勢所趨。相信在不久的未來,會有更多在芯片生產領域對人工智能技術的探索和應用。
