AI晶片在模仿人腦嗎?什麼是類神經網路晶片
編輯: 黃宜稜(科技大觀園特約編輯)
-----
專訪國立陽明交通大學電子研究所陳坤志教授=>
摘要:
一、 人腦 vs. 電腦:能效與運算邏輯的懸殊
-低能耗優勢:
人腦在執行複雜辨識與決策時,功耗僅約 20 至 25 瓦(相當於省電燈泡),遠低於現代 AI 資料中心龐大的電力需求。
-運算方式:
傳統電腦多為依序處理,而人腦則是透過大量神經元進行「高度平行運算」,且具備在少量資料中迅速決策的能力。
二、 釐清概念:類神經網路模仿了什麼?
陳教授指出,AI 相關名詞具備層層包含的關係:人工智慧 (AI) > 機器學習 (ML) > 類神經網路 (ANN) > 深度學習 (DL)。
1.人工智慧 (Artificial Intelligence, AI)
定義: 最廣泛的範疇。泛指所有能讓機器「展現智慧行為」的技術。
核心特點: 目標是讓電腦模仿人類的認知功能,例如解決問題、理解語言或辨識物體。
比喻: 只要機器能像人一樣「動腦」解決問題,不論它是寫死的規則還是會自己學習,都算 AI。
2.機器學習 (Machine Learning, ML)
定義:AI 的一個子集。核心在於「不靠硬寫規則,而是從資料中學習規律」。
核心特點:工程師不直接告訴電腦「看到鬍鬚和尖耳朵就是貓」,而是餵給電腦幾萬張貓的照片,讓它自己歸納出貓的特徵。
比喻:像是在教一個學生,給他很多練習題(資料),讓他自己悟出解題邏輯。
3. 類神經網路 (Artificial Neural Network, ANN)
定義:機器學習的一種特定演算法模型,「模仿人類大腦神經元的連結方式」。
核心特點:由一層層的「人工神經元」組成,訊號在層與層之間傳遞並計算權重。它是目前實現複雜學習效果最主流的數學結構。
比喻:就像在電腦裡建立一個簡單的人造大腦雛形,試圖模擬生物的思考路徑。
4. 深度學習 (Deep Learning, DL)
定義:類神經網路的進階版。當神經網路的「層數堆疊得非常深、非常多」時,就稱為深度學習。
核心特點:因為層數多,它可以處理極其複雜的任務(如生成影像、理解語音)。現在我們看到的 ChatGPT、自駕車、繪圖 AI,背後的核心技術幾乎都是深度學習。
比喻:類神經網路是小學程度,深度學習則是讓這個大腦經過博士級的訓練,層次更深、理解力更強
-模仿的核心:類神經網路並非複製整顆大腦,而是模仿神經元「接收訊號、給予權重、整合輸出」的連結與傳遞機制。
-本質差異:目前的 AI 主要是以「數學方法」模擬神經元的抽象形式,而非重現生物大腦的完整生理運作。
三、 AI 發展的轉折:從軟體演算法走向客製化硬體
隨著 AI 模型規模膨脹,技術瓶頸已從演算法轉向「算力需求、能耗與資料搬移成本」。
1. 訓練 (Training) vs. 推論 (Inference):
---訓練:
比喻:閉門苦讀:學生讀遍數百萬本書,從中歸納知識。
目標:從數據中學習規律(決定「權重」參數)。
運算量:極大:需要反覆修正、不斷來回計算(反向傳播)。
處理資料量:海量:通常需要 TB 級甚至 PB 級的訓練集。
時間需求 長:可能需要數週甚至數月才能完成。
硬體偏好 強調高算力與大顯存(如 NVIDIA H200 / B200)。
---推論:
比喻:上場考試:學生根據學到的知識,回答考卷上的問題。
目標:根據輸入的數據,快速給出正確的預測或答案。
運算量:較小:只需單向計算一次,得出結果即結束。
處理資料量:少量:通常是一張照片、一句話或一個指令。
時間需求:極短:必須在毫秒(ms)等級內回應。
硬體偏好:強調低延遲與高能效(如手機晶片、邊緣運算裝置)。
2. 通用型處理器 (CPU) 的侷限:CPU 雖具通用性,但處理 AI 核心的「矩陣乘法」與「卷積運算」效率不高。
3. AI 晶片的優勢:採任務導向設計,針對特定運算進行硬體優化,減少資料在記憶體與運算單元間的搬移次數,從而達成低功耗與低延遲。
四、 現狀與挑戰:離真正的大腦還有多遠?
儘管 AI 晶片正朝向平行運算、減少功耗的方向努力,但與人腦仍有巨大鴻溝:
-架構限制:多數 AI 仍運行於「馮·紐曼架構」(運算與記憶體分離),而人腦的運算與儲存是高度融合的。
-學習效率:人腦可用極少量資料學會新事物,AI 則仍需海量資料支撐。
-事件驅動:前沿研究試圖模仿人腦「僅在輸入改變時運算」的特性,以降低能耗。
五、 臺灣的機會與結論
-產業優勢:臺灣具備世界級的晶片設計、製造、封測供應鏈,未來若能由晶片延伸至系統架構整合,將具備極大競爭力。
-總結:AI 晶片並非將大腦「矽化」,而是借鑒大腦的資訊處理原理,尋求更聰明、更省能的運算架構。這場科技探索才剛剛開始。