海伯理論粵拼hoi2 baak3 lei5 leon6英文Hebbian theory),又有

  • 海伯定律Hebb's rule)、
  • 海伯假說Hebb's postulate)同
  • 細胞組合論cell assembly theory
幾粒互相連住嘅神經細胞;根據海伯理論,佢哋之間同唔同時傳訊會令佢哋之間嗰啲突觸起變化,而呢種變化就係學習現象嘅根本。

等嘅多個名,係由加拿大心理學家當奴海伯(Donald O. Hebb)喺 1949 年提出嘅一個神經科學理論[1][2],內容大致如下:

原版英文:"When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A's efficiency, as one of the cells firing B is increased."

粵文翻譯:當一粒細胞 A 嘅軸突接近要刺激細胞 B [註 1],並且重複噉或者持續噉參與引致細胞 B 射訊,其中一粒或者兩粒細胞入面會有一啲生長或者代謝變化發生,令到 A 作為引致 B 射訊嘅其中一粒細胞嘅效率上升[3]

海伯認為呢條定律可以解釋學習嘅現象:神經細胞(neuron)係一種特殊嘅細胞,曉用電同化學方法彼此傳訊號,而神經細胞之間有突觸(synapse)呢種空間;喺標準嘅神經網絡理論當中,海伯定律係一條講突觸改變嘅定律,指每當兩粒神經細胞一齊射訊嗰陣,兩粒細胞之間嘅突觸就會強化-一個突觸嘅效能提高源於打前嗰粒神經細胞對佢後面嗰粒神經細胞重複又持久嘅刺激;海伯佢仲進一步提出,呢種變化會引致一個神經系統inputoutput 之間嘅關係起變化,即係會令到個神經系統下次再接收同一個 input 嗰陣,(因為神經細胞之間嘅連繫唔同咗)output 可能會唔同咗-而「按經驗調整自己行為」正正就係「學習」嘅定義[4][5]

基礎 編輯

睇埋:神經細胞突觸

當奴海伯喺佢 1949 出嗰本書入面係噉樣講嘅[3]:p. 70

原版英文:"The general idea is an old one, that any two cells or systems of cells that are repeatedly active at the same time will tend to become 'associated' so that activity in one facilitates activity in the other."

粵文翻譯:(海伯定律)個大致諗頭相當舊,講緊是但兩個(神經)細胞或者兩個系統嘅(神經)細胞只要重複噉一齊同時活躍,就會傾向變成彼此之間有「關聯」,令到(打後)其中一個嘅活動會促進另外嗰個嘅活動。

最基礎嘅海伯理論包含咗以下呢兩點:

  • 只有個突觸打前同個突觸打後嗰兩粒神經細胞有能力改變個突觸;
  • 學習表示評估兩樣嘢之間嘅相關(correlation)-如果兩粒神經細胞同時啟動,就表示佢哋各自代表嘅事物同時出現(例:某粒神經細胞專係喺個人見到隻嗰陣啟動,另外嗰粒專係喺個人嗰陣啟動),噉即係話兩樣嘢之間有正相關(狼同危險有正相關),所以個人就要學識將兩樣嘢聯想埋一齊(兩粒細胞之間個突觸要強化);另一方面,有效率嘅學習需要突觸強度耐唔耐跌吓[6]
  • 神經科學家噉樣描述海伯理論:如果有某一個會重複出現嘅 input 會引致個系統出現同一個規律嘅活動(同一個組合嘅細胞同時啟動),噉喺海伯定律之下嗰個規律所涉及嘅神經細胞彼此之間會變到有愈嚟愈緊密嘅連繫(彼此之間嘅突觸愈嚟愈強)-個規律入面嘅細胞會愈嚟愈傾向啟動個規律入面嘅其他細胞,同時會愈嚟愈傾向關閉個規律外面嘅細胞,最後形成一個特定組合嘅細胞,組合內嗰柞細胞彼此之間連繫強[7]

數學模型 編輯

 
一個簡單、單向嘅神經網絡圖例;每個圓圈代表一粒人工神經細胞,而箭咀表示箭咀後嗰粒細胞嘅   值會受箭咀前嗰粒細胞嘅   值影響。

人工神經網絡(artificial neural network)嘅角度嚟睇,海伯定律可以當係一種斷定人工神經細胞之間嘅權重(weight)嘅方法。人工神經網絡係人工智能(AI)上嘅一種技術,用嚟由已知嘅輸入輸出關係當中學習規律,並且對將來嘅同類個案作出預測。喺一個典型嘅人工神經網絡入面,每粒相連嘅人工神經細胞之間都有個權重值,個數值表示「呢粒細胞有幾能夠影響下一粒細胞嘅啟動程度」,即係話 foreach 人工神經細胞,嗰粒細胞嘅啟動程度   會由以下嘅函數決定:

 ;(啟動函數

喺條式當中,  代表其他神經細胞當中第   粒嘅啟動程度,而   就係其他神經細胞當中嘅第   粒嘅權重。假想一個人工神經網絡有某段演算法會按照個神經網絡接收過嘅 input 改變啲權重值,就有可能會令 inputoutput 之間嘅關係改變,即係令個人工神經網絡進行學習-而海伯定律可以用嚟做權重值改變演算法嘅一部份[8][9]

公式 編輯

以下係海伯學習嘅一條可能嘅式[10]

 

當中   係細胞   去細胞   嘅權重值,  係細胞   接收到嘅輸入數值;喺唔俾一粒細胞俾輸入俾自己嘅網絡當中,如果    會係 0。

家陣想像一個簡單嘅神經網絡,啲輸入同輸出冚唪唥都係二元(binary)數值-即係每個輸入或者輸出都淨係有兩個可能數值,一係 1 一係 0;每當有兩粒細胞數值同時係 1 (true)嗰陣,佢哋之間嘅   先至會變成 1 (true),而當呢兩粒細胞當中是但一粒嘅數值係 0 (false)嗰陣,佢哋之間嘅   會變成 0 (false)-只有喺兩粒細胞同時啟動嗰時,佢哋之間嘅   先會變成 1;噉即係話喺學習過程完咗(  數值唔再變)之後,每逢其中一粒啟動(  數值變成 1)嗰時,第粒會傾向跟住一齊啟動[10]

  係連續性嘅變數嘅情況可以用相同嘅道理想像:如果啲   值係連續數值嘅話,一個可能嘅方法係將個平均值設做 0-即係做事前數據處理,將每個個案嘅數值減個平均值,令到低過平均值嘅數據冚唪唥變嗮負數,高過平均值嘅數據先會係正數;喺呢個情況下,如果有兩粒細胞一齊有高過平均值嘅啟動或者一齊有低過平均值嘅啟動,佢哋嘅   值會係正數,否則   值會係負數[11]

廣義公式 編輯

海伯學習條式嘅廣義化係:

  

當中   係第   個突觸權重,而   係指   嘅改變, 學習率(一般會係一個常數),  係做帶動嗰粒神經細胞嘅啟動程度,而   係跟尾嗰粒神經細胞嘅啟動程度,當中   等如

  

當中   係指第   粒有連落去   嗰度嘅細胞,而成條式講嘅係「每個   各自噉乘自己個權重值,再將得出嘅數值冚唪唥加埋一齊」。呢條廣義化式好多時會搞到個網絡有唔穩定嘅行為:例如根據呢個廣義化模型,如果起始嘅    同輸入數值-即係柞  -都係正數( ),啲權重值就會永無止盡噉勁升;呢種情況喺實際嘅生物神經網絡當中唔會發生,因為生物神經細胞受佢哋嘅化學同電性質限制,啲權重值梗會有上下限,但喺以電腦碼型式存在嘅人工神經網絡入面,呢種情況可以造成問題,所以喺實際嘅人工神經網絡應用當中,啲人比較常會用廣義海伯定律條式嘅變種(睇下面)[12][13]

順帶一提,  條式用向量嘅型式表達如下[14]

 

變種 編輯

電腦科學家有為咗設計更有效嘅人工神經網絡,而創造出海伯理論嘅變種模型[12]

哀也定律 編輯

哀也定律Oja's rule)係由芬蘭一位電腦科學家諗出嚟嘅一個模型,用嚟模擬腦或者人工神經網絡入面嘅神經細胞點樣改變彼此之間嘅。哀也定律建基於海伯定律,但作出咗一啲變更,條式如下[15]

  

  呢條式用向量嘅型式表達如下:

 

哀也定律能夠解決海伯定律啲問題,其中最大嘅一個就係啲權重值有可能永無止盡噉勁升( );唔同嘅係,哀也定律加咗一部份 )落條式嗰度做懲罰,個   嘅數值同權重值  正比,即係話隨住   數值變大,從   減去嘅數就會愈大,係噉降低個權重   嘅增長速度  ,表示個由基本海伯定律引致嘅權重勁升現象就噉消失。另外,哀也定律亦都可以輕易噉應用落啲多過一粒神經細胞嘅模型嗰度[15][16]

BCM 理論 編輯

BCM 理論英文Bienenstock-Cooper-Munro theoryBCM theory)係 1981 年出嘅一個海伯理論變種版,原本係用嚟模擬視覺皮層(visual cortex;大腦皮層專門處理視覺資訊嗰一忽)嘅學習嘅。條式如下[17] [註 2]

  

當中   係指時間,而   就係指權重   隨時間改變嘅率[註 3],而    都係某啲特定嘅常數;喺呢條式入面,右手邊會減一個同   成正比嘅數( ),令   唔會無止盡噉勁升(BCM 理論喺呢點上同哀也定律一樣),而   扮演咗門檻值(threshold)嘅角色,表示   數值要有返咁上下高先會有機會令   數值上升。BCM 理論當時取得相當嘅成功,例如有神經科學家試過一路用神經成像方法監察住受試者塊視覺皮層嘅腦活動,跟手用 BCM 理論嘅式模擬視覺皮層嘅活動規律,發現模擬結果同實際觀察到嘅吻合-撐咗 BCM 理論[18],而打後仲有人整咗 BCM 理論嘅變種版本[19][20]

例子碼 編輯

以下係一段用 MATLAB程式語言一種)寫嘅海伯式人工神經網絡嘅源碼嘅一部份(有關人工神經網絡嘅運作原理,可以睇吓人工神經網絡[21]

function [w b]= HebbNN(x)  % x 係成個子程序嘅輸入。
  clc
  
  % Initialize,即係做初始化
  m = size(x,1);  % m 係 training sample(訓練數據)嘅個案數量。
  n = size(x,2);  % n 係人工神經細胞嘅數量。
  w = zeros(1,n-1) ;  % 設個 array(陣列)表示啲權重。
  b = 0;

  % for training sample 入面每個個案...
  for i=1:m
      % for 每粒人工神經細胞...
      for j=1:n-1
          % 按照個個案嘅數值同海伯定律,更新啲權重。
          w(j) = w(j) + x(i,j).* x(i,n);
      end
      b = b + x(i,n);
  end
...

解釋鏡神經細胞 編輯

海伯理論亦都有俾人攞嚟模擬鏡神經細胞嘅活動。鏡神經細胞(mirror neuron)係一種特殊嘅神經細胞,專門處理同身體郁動相關嘅資訊;鏡神經細胞喺一個人用自己身體做動作同望其他人做相同動作嗰陣,都會有強嘅活動[22],而呢種過程對於「自動噉模仿其他人嘅表情」等嘅行為嚟講不可或缺,而鏡神經細胞失靈往往會搞到個人唔識同人溝通(可以睇吓自閉症譜系)。鏡神經細胞喺神經科學上得到唔少研究者嘅關注,神經科學家同第啲科學家一樣,會想建立描述佢哋所研究嘅現象嘅數學模型,所以自從廿世紀發現咗鏡神經細胞開始,有唔少神經科學家都想建立能夠描述鏡神經細胞嘅數學模型[23][24]

 
鏡神經細胞展現佢哋嘅效果-一隻幼獼猴識模仿一位研究員嘅表情。
假說:鏡神經細胞網絡源於海伯學習

廿一世紀初有神經科學家提出咗以下假說:每當一個人做出一個動作嗰陣,佢個腦入面嗰啲鏡神經細胞都會啟動,而每一個可能嘅啟動規律都代表一個特定嘅動作,呢個規律反映咗同嗰個動作相應嘅影像、聲同感覺;鏡神經細胞喺個人感知到同某個動作對應嘅影像、聲同感覺會有同樣嘅啟動;喺呢個過程當中,海伯學習所描述嘅機制幫咗手建立每一個鏡神經細胞啟動規律-想像兩粒鏡神經細胞,鏡神經細胞 A 同鏡神經細胞 B,A 專係喺感知到同人聲講嘢一齊出現嘅動作嗰陣有反應,而 B 就專係對口嘅郁動有反應,呢兩粒鏡神經細胞成日一齊啟動(喺個人講嘢或者感知到其他人講嘢嗰時),根據海伯定律,A 同 B 之間嘅連繫會變強,最後形成一個網絡,而呢個鏡神經細胞網絡專係喺個人講嘢或者聽到見到其他人講嘢嗰時啟動[23][25]

神經科學界亦都有做一啲實證研究,剖析海伯學習喺鏡神經細胞功能當中扮演嘅角色。例如有多份廿世紀初嘅研究都發現,如果一個人重複噉感知到一個刺激  ,而個刺激傾向同一個動作   一齊出現,個人嘅腦會將    聯想埋一齊[26][27]。舉個例子說明:

  • 想像有一個人,佢從來未彈過鋼琴,佢喺聽到鋼琴音樂嗰陣,個腦啲鏡神經細胞唔會有同彈鋼琴嘅動作相應嘅啟動(對啲鏡神經細胞嚟講,「彈鋼琴嘅動作」同「鋼琴聲」之間冇連繫);
  • 然後佢走去上堂學彈鋼琴,每次佢彈某一個音嗰時都會聽到一個相應嘅聲(「彈鋼琴嘅動作」  同「鋼琴聲」  重複噉一齊出現);
  • 及後會發現,呢個人每次聽到鋼琴聲嗰陣,個腦啲鏡神經細胞都會變成同彈鋼琴相應嘅啟動(對啲鏡神經細胞嚟講,「彈鋼琴嘅動作」同「鋼琴聲」之間有咗連繫)-即係話喺學鋼琴中途,嗰個人啲鏡神經細胞慢慢變成將「彈鋼琴嘅動作」同「鋼琴嘅聲」聯想埋一齊[28]

註釋 編輯

  1. 呢度所講嘅「細胞」係指神經細胞
  2. 原論文條公式:
     
    其中   係攞嚟處理門檻值   嘅非線性函數:
      嗰陣   (LTD)
      嗰陣   (LTP)
  3. 詳情可以睇吓導數

睇埋 編輯

文獻 編輯

編輯

  1. H. H. Lund. Neural building blocks. In 1st International IEEE EMB Conference on Neural Engineering, Capri, Italy, March 20-22 2003. IEEE Press
  2. Caporale N; Dan Y (2008). "Spike timing-dependent plasticity: a Hebbian learning rule". Annual Review of Neuroscience. 31: 25–46.
  3. 3.0 3.1 D. O. Hebb. The Organization of Behavior. Wiley, New York, 1949.
  4. W. Gerstner, R. Kempter, J. L. van Hemmen, and H. Wagner. Hebbian learning of pulse timing in the barn owl auditory system. In Wolfgang Maass and Cristopher M. Bishop, editors, Pulsed Neural Networks. MIT Press, 2001.
  5. Nielsen, J., & Lund, H. H. (2003, October). Spiking neural building block robot with Hebbian learning. In Proceedings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2003)(Cat. No. 03CH37453) (Vol. 2, pp. 1363-1369). IEEE.
  6. Sejnowski, T. J. (1977). Statistical constraints on synaptic plasticity. Journal of Theoretical Biology, 69:385-389.
  7. Allport, D.A. (1985). "Distributed memory, modular systems and dysphasia". In Newman, S.K.; Epstein R. (eds.). Current Perspectives in Dysphasia. Edinburgh: Churchill Livingstone. p. 44.
  8. Gardner, M. W., & Dorling, S. R. (1998). Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences. Atmospheric environment, 32(14-15), 2627-2636.
  9. Omidvar, O., & Elliott, D. L. (1997). Neural systems for control. Elsevier.
  10. 10.0 10.1 J.J. Hopfield, "Neural networks and physical systems with emergent collective computational abilities" Proc. Nat. Acad. Sci. USA , 79 (1982) pp. 2554–2558
  11. Melchior, J., & Wiskott, L. (2019). Hebbian-Descent (PDF). arXiv preprint arXiv:1905.10585.
  12. 12.0 12.1 Euliano, Neil R. (1999-12-21). "Neural and Adaptive Systems: Fundamentals Through Simulations" (PDF). Wiley.
  13. Shouval, Harel (2005-01-03). "The Physics of the Brain". The Synaptic basis for Learning and Memory: A theoretical approach. The University of Texas Health Science Center at Houston.
  14. Oja learning rule. Scholarpedia.
  15. 15.0 15.1 Oja, E. (1982) A simplified neuron model as a principal component analyzer. Journal of Mathematical Biology, 15:267-2735
  16. Oja E. (1992) Principal components, minor components, and linear neural networks. Neural Networks, 5: 927-935.
  17. Bienenstock, E. L., Cooper, L. N, and Munro, P. W. (1982). Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex. Journal of Neuroscience, 2:32–48.
  18. Shouval, H., Intrator, N., and Cooper, L. N (1997). BCM network develops orientation selectivity and ocular dominance in natural scene environment. Vision Research, 37:3339–3342.
  19. Izhikevich, Eugene M.; Desai, Niraj S. (2003-07-01). "Relating STDP to BCM". Neural Computation. 15 (7): 1511–1523.
  20. Intrator, Nathan (2006–2007). "The BCM theory of synaptic plasticity". Neural Computation. School of Computer Science, Tel-Aviv University.
  21. Neural Network Hebb Learning Rule, Functions. Mathworks.
  22. Gallese V; Fadiga L; Fogassi L; Rizzolatti G (1996). "Action recognition in the premotor cortex". Brain. 119 (Pt 2): 593–609.
  23. 23.0 23.1 Keysers C; Kohler E; Umilta MA; Nanetti L; Fogassi L; Gallese V (2003). "Audiovisual mirror neurons and action recognition". Exp Brain Res. 153 (4): 628–636.
  24. Rizzolatti, G., & Craighero, L. (2004). The mirror-neuron system. Annu. Rev. Neurosci., 27, 169-192.
  25. Keysers, C., & Perrett, D. I. (2004). Demystifying social cognition: a Hebbian perspective. Trends in cognitive sciences, 8(11), 501-507.
  26. Del Giudice M.; Manera V.; Keysers C. (2009). "Programmed to learn? The ontogeny of mirror neurons" (PDF). Dev Sci. 12 (2): 350–363.
  27. Bauer E.P.; LeDoux J.E.; Nader K. (2001). "Fear conditioning and LTP in the lateral amygdala are sensitive to the same stimulus contingencies". Nat Neurosci. 4 (7): 687–688.
  28. Lahav A.; Saltzman E.; Schlaug G. (2007). "Action representation of sound: audiomotor recognition network while listening to newly acquired actions". J Neurosci. 27 (2): 308–314.

編輯