在人工智能和機器學習的推動下,邊緣計算的需求正在逐漸增加。相關機構預測,全球被創建、采集和復制的數據將急劇擴張,至2025年達到175ZB(澤字節)。為減輕數據在云端處理的負荷,越來越多的數據也將被置入邊緣側進行運算。作為電子設備的主控制芯片,MCU對于邊緣計算設備的數據處理和決策能力提升有著重要作用,將在邊緣AI的浪潮中迎來新的發展機遇,同時也面臨著更多的挑戰。
邊緣AI浪潮來襲 拓展MCU市場空間
物聯網(IoT)設備、工控、智能家居和智能穿戴等領域的需求,正在帶動MCU市場的增長。從長期來看,在保證低功耗、強實時性的前提下,讓MCU具備更強的邊緣側計算和智能決策能力成為了下游市場的期許。
在這個過程中,邊緣AI成為智能設備發展的重點。邊緣AI是在物理世界的設備中部署AI應用程序。之所以稱其為“邊緣AI”,是因為這種AI計算在靠近數據的位置完成。對比云端運算,邊緣AI具備強實時性,數據處理不會因為長途通信而產生延遲,而是能更快響應終端用戶的需求,同時也可保證數據的隱私和安全。對比傳統邊緣計算只能響應預先完成的程序輸入這一特性,邊緣AI又具備更強的靈活性,從而允許更多樣的信號輸入(包括文本、語音及多種聲光信號等)和針對特定類型任務的智能解決方案。
邊緣AI的以上特性,與MCU有著較強的契合度。一方面,MCU具備低功耗、低成本、實時性、開發周期短等特性,適合對成本和功耗敏感的邊緣智能設備。另一方面,人工智能算法的融入也能補強MCU,使其兼顧更高性能的數據處理任務。因此,“MCU+邊緣AI”正在圖像監控、語音識別、健康狀況監測等越來越多的領域得到應用。此外,在IoT的基礎之上,MCU和邊緣AI的結合也將推動AIoT(人工智能物聯網)的發展,使各種設備能夠更加智能地互聯互通。數據機構Mordor Intelligence預測,邊緣人工智能硬件市場在2024至2029年間將以19.85%的年復合增長率增長,2029年將達到75.2億美元。
“未來的MCU將面向專業化、智能化方向發展?!北本┺人箓ビ嬎慵夹g股份有限公司首席市場官劉帥告訴《中國電子報》記者,“其中智能化體現在兩方面,一是強化對AI算法和機器學習模型的支持,使得MCU擁有一定智能決策能力;二是性能提升,高端產品將采用多核設計以提升處理能力,滿足高性能的需求?!?/p>
集成AI加速器 強化MCU性能
邊緣AI為MCU帶來了諸多市場機遇,而想要滿足智能設備在邊緣側進行人工智能的運算需求,強化MCU的AI性能是重中之重。
“面向邊緣AI和端側AI需求,MCU需要做出以下調整以增強AI計算能力?!闭滓讋撔翸CU事業部產品市場總監陳思偉表示,“一是集成AI加速器,如神經網絡加速器或者專用的向量處理器,以加速AI推斷和訓練任務;二是優化能效比,在保持性能的同時降低功耗,延長設備續航時間;三是增強安全性,包括數據加密、安全引導和安全存儲,以保護用戶數據不受攻擊;四是支持多模態感知;五是優化系統集成,提供更多的硬件接口和軟件支持,使得開發人員能夠更輕松地將AI功能集成到邊緣設備中?!?/p>
在AI加速器方面,數字信號處理器(DSP)和神經網絡處理器(NPU)都成為在MCU中集成的重要加速組件,讓MCU能夠在邊緣運行AI算法。具體而言,DSP更適合信號處理任務,包括音頻、視頻、通信等,而NPU則更聚焦于高效處理大量的矩陣運算和并行計算任務。
為此,各大廠商積極布局。意法半導體于2023年推出STM32N6,采用Arm Cortex-M55內核,集成ISP和NPU以提供機器視覺處理能力和AI算法部署。恩智浦推出MCX N系列MCU,具有雙核Arm Cortex-M33,并集成了eIQ Neutron NPU,據了解,該NPU可將機器學習推理性能提升約40倍。
作為大多數MCU內核的供應方,Arm也在邊緣側NPU上發力。4月,Arm推出Ethos-U85 NPU,作為一款AI微加速器,其支持Transformer架構和CNN(卷積神經網絡),配合Armv9 Cortex-A CPU可提供4TOPS的端側算力,助力AI推理。
Arm Ethos-U85 NPU(圖片來源:Arm)
“許多不同的處理器都可以實現人工智能。AI可以在Arm核中運行,也可以在NPU、DSP當中,不同處理器將會運行不同算法,那么功耗也會不同?!倍髦瞧謭绦懈笨偛眉姘踩B接邊緣業務總經理Rafael Sotomayor表示,“是否在Arm核或者DSP中實現AI功能,這取決于工程團隊的技術專長。我們使用NPU來做,是因為(從我們的技術出發)速度更快,而且能耗更小。當然,如果客戶對特定機器學習算法有要求,也可以繼續使用DSP?!?/p>
實現性能功耗成本平衡 構建平臺化方案
盡管可以通過集成NPU等AI加速器使MCU支持AI算法,但是高性能往往會帶來更高的功耗。因此在提升性能的同時,也要保證MCU在功耗和成本等諸多要素之間達到平衡。這不僅考驗MCU廠商的芯片設計能力,也對公司整體成本和功耗優化提出了更高要求。
使用自研NPU成為廠商平衡成本與效能的選擇之一。據悉,意法半導體所發布的STM32N6采用了自研的Neural-Art加速器,恩智浦MCX N系列所集成的eIQ Neutron NPU同樣為自研。這既有利于降低授權成本,也能保證在自身技術路徑下對NPU迭代節奏的合理把控。
eIQ Neutron神經處理單元框圖(圖片來源:恩智浦)
同時,內核架構的選項也在增加。當前在MCU市場中,除少部分8位MCU使用CISC架構,Arm架構的Cortex-M系列核由于功耗表現較好占據主流,而隨著RISC-V架構逐漸發展,這一新興架構也逐漸獲得廠商的青睞。據悉,ADI推出的MAX78000/2在集成專用神經網絡加速器的基礎上,提供了Arm核與RISC-V核兩種方案,可在本地以低功耗執行AI處理,最大程度地降低CNN運算的能耗和延遲。
劉帥向記者表示,采用RISC-V架構能夠為MCU廠商帶來更多優勢,一方面,RISC-V內核靈活可裁剪,可根據具體應用需求進行定制;另一方面,由于RISC-V架構更加簡潔,功耗也更低。此外,相比ARM架構,作為開源架構的RISC-V也能降低授權費用和開發成本。
而站在客戶的視角,除了需要MCU產品在高性能、低功耗、低成本等多方面達成平衡,也希望MCU廠商能夠提供平臺化的整套解決方案。
“過去客戶的選擇是自下而上的——先選擇芯片,再思考需要何種軟件、應用等?,F在則是從應用層開始,自上而下到芯片,以獲取技術支撐?!盧afael Sotomayor指出,“這些技術非常復雜,不僅涉及人工智能,還涉及信息安全、功能安全、視覺、音頻等。因此,幫助客戶簡化技術的復雜性,成為廠商為客戶提供產品和服務的核心價值?!苯衲?月,恩智浦宣布與英偉達合作,將英偉達TAO工作組件集成在恩智浦eIQ機器學習開發環境中,以便開發者加速開發,并部署經過訓練的AI模型。
ADI基于MAX78000/2,提供了開發工具MAX78000EVKIT#,以幫助開發者實現平穩的評估和開發體驗。意法半導體同樣推出云端開發者平臺STM32Cube.AI,支持使用者在云端對已有資源進行配置,進一步降低邊緣人工智能技術開發的復雜度。
綜合來看,面對邊緣AI浪潮所帶來的挑戰,MCU廠商正在積極探索,并展示出多樣化的發展路徑。盡管架構及AI加速器等方案的“最優解”目前還未有定數,但是對于MCU而言,在保證低功耗和低成本等基本特性的前提下,不斷提升計算能力和安全性能來適應越發復雜的邊緣計算環境,已是大勢所趨。
責任編輯:趙強
- QQ:61149512