每天資訊資訊大腦如何從物理大腦中湧現?

菜單

資訊大腦如何從物理大腦中湧現?

資訊大腦如何從物理大腦中湧現?

導語

我們的大腦是一個處理資訊的動力學系統。數百億個神經元時刻接受內部和外部刺激,對這些資訊進行編碼處理,進而形成我們對世界的認知。大腦的資訊機能本質上從神經元叢集活動的動力學中湧現,可是這種湧現到底是如何發生的?我們的資訊大腦和物理大腦之間有什麼內在聯絡?10月29日,清華大學的研究團隊在

Physical Review Research

上發表的一項最新理論研究,揭示了大腦的神經動力學與資訊加工屬性間的基本關係,或有助於我們理解大腦這個複雜系統中各類資訊加工特性的湧現。

研究領域:

神經科學,統計物理,大腦資訊加工,神經動力學,集體運動,湧現

資訊大腦如何從物理大腦中湧現?

田洋

| 作者

梁金 | 審校

鄧一雪 | 編輯

資訊大腦如何從物理大腦中湧現?

論文題目:

Bridging the information and dynamics attributes of neural activities

論文連結:

https://doi。org/10。1103/PhysRevResearch。3。043085

1。 動力學和資訊:大腦的雙重屬性

理解大腦中資訊加工機能的基礎是現代物理學的前沿之一[1]。大量的研究證明大腦可以被視為一個加工資訊的複雜動力學系統[2]。一方面,作為動力學系統的大腦常受外部刺激[3-5]或內部因素[6-7]驅動而遠離平衡態,產生複雜的

動力學

過程。另一方面,如果這些動力學過程是由刺激驅動的,刺激的資訊即在一定程度上被大腦編碼[13]和儲存[14],進而支撐各類認知過程[15-17],賦予了大腦作為

資訊加工系統

的身份[18]。對大腦的這種雙重屬性的探索具有悠久的歷史,研究者在大腦中發現了大量的動力學和資訊屬性間的關係[4,19–21],證明

大腦處理外界資訊的認知機能(或稱為資訊機能)本質上依賴於其神經動力學

雖然單獨對大腦的動力學[8–12]或資訊屬性[13–18,25,26]的研究已經取得了諸多進展,我們依然不清楚為何大腦動力學與資訊屬性具有如此基礎的聯絡。

受到費米的大象“的啟示

[51]

,學界希望避免侷限於唯像模擬,而探索出一個解析的(analytic)理論以解釋大腦中動力學和資訊的聯絡

(例如,見文獻[20]的探索)

。在探索可能的解析理論的過程中,研究者可能遇到以下困難。一方面,研究者缺乏一個對神經活動中動力學[27]和資訊屬性[28]的進行統一分析的理論。另一方面,不同於以機率論為基礎的資訊屬性度量

(例如互資訊和 Fisher 資訊[13])

,對動力學屬性的主流實驗[38–40]和理論[12,41–50]刻畫方法

(例如 Lyapunov 譜[49,50])

多基於非機率的框架,這阻礙了對動力學和資訊屬性關係的探討。

為了在一定程度上克服上述困難併為後續探索提供可能的方向,來自清華大學心理學系&清華大學腦與智慧實驗室以及清華大學類腦計算研究所的研究團隊進行了一項探索性研究。該研究的部分結果2021年10月29日發表於物理期刊 Physical Review Research。研究者將探討範圍限定在了

神經動力學、編碼和解碼三者之間

(見圖1)

。作為相對基本的資訊加工視角,編碼和解碼能對神經資訊加工屬性進行基礎的刻畫。

資訊大腦如何從物理大腦中湧現?

圖1。 理論分析框架

2。 神經活動的隨機動力學

研究者首先展示了一個基於非齊次馬爾可夫鏈的隨機動力學框架。在不借助其他假設或簡化的情況下,研究者只使用(1)神經調諧特性

(neural tuning properties,即神經元的選擇性響應特性)

以及(2)神經元動作電位在隨機結構的神經群中的傳輸時延這兩個基本的神經系統性質,構建了隨機動力學框架描述受刺激驅動的神經元叢集動力學

(collective dynamics)

。具體例子可見圖2。

資訊大腦如何從物理大腦中湧現?

圖2。 受刺激驅動的神經元叢集動力學

在該框架的構建過程中,研究者透過將點估計等後驗統計方法融入數學推導,克服了使用機率方法描述強耦合的神經元動力學的困難,避免引入神經元獨立性的假設,並使得該隨機動力學框架能直接基於真實實驗資料進行後驗估計。

為了刻畫基於隨機動力學框架描述的神經活動的動力學屬性,研究者引入了

KS 熵

(Kolmogorov-Sinai entropy)

的概念,並基於馬爾科夫鏈的性質給出了KS熵的明確表達。KS 熵可以被粗略地理解為在有限次取樣

(或觀測)

的條件下,觀測一個連續時間的動力系統所面臨的不確定性。基於KS熵,研究者可以在任意時刻計算神經元叢集動力學中任意一個神經元的動力學分量的不確定性

(dynamic randomness)

。圖3展示了一個示例。

資訊大腦如何從物理大腦中湧現?

圖3。 神經動力學的KS熵及其時空分佈

將KS 熵引入動力學分析的另一個重要意義在於其對混沌現象的刻畫。KS熵與另一個更常見的動力學刻畫方法——Lyapunov譜

(Lyapunov spectra)

——之間存在著深刻的數學聯絡。具體而言,KS熵是Lyapunov譜中所有非負的Lyapunov指數之和的下界。同時,Lyapunov譜刻畫了動力系統的相空間中相鄰軌道的收斂和發散性質。當存在非負的Lyapunov指數時,動力系統在該指數對應的相空間方向上是混沌的。這意味著,

透過驗證KS熵是否非零,研究者能夠判定動力系統是否存在混沌現象。KS熵越大,則可以認為混沌的程度越大。

3。 隨機動力學的資訊屬性

同時,研究者刻畫了神經元叢集動力學的資訊編碼和解碼屬性

(見圖4)

。在一定程度上,可以將

資訊編碼

理解為給定刺激後,基於神經活動來表徵該刺激資訊的過程;可以將

資訊解碼

理解為給定神經活動後,逆推誘發神經活動的刺激資訊的過程。一般情況下,

資訊編碼是所有神經資訊加工的起點,而資訊解碼則是研究者間接分析神經資訊編碼的方法。

資訊大腦如何從物理大腦中湧現?

圖4。 基於資訊編碼和解碼對資訊加工的分析框架

在神經科學和物理學中,學界一般使用

互資訊

(mutual information)

等相關概念刻畫資訊編碼,並使用

Fisher資訊

(Fisher information)

刻畫資訊解碼。一般而言,互資訊可以理解為對神經活動可以編碼的刺激資訊量的度量,Fisher資訊可以理解為對基於神經活動可以解碼的刺激資訊量的度量。研究者基於隨機動力學框架給出了上述概念的時變

(time-dependent)

度量方法。

4。 動力學和資訊屬性的基本關係

基於上述工作,研究者實現了一個以隨機動力學框架為橋樑,能夠對動力學

(KS熵)

和資訊

(編碼和解碼)

屬性進行統一分析的理論。由於

隨機動力學本身支援對兩類屬性解析的計算

,而無需進行數值模擬或逼近,研究者得以對兩類屬性間的聯絡進行解析的探索。在該工作中,研究者展示了4個主要的發現。

研究者首先分析了與資訊加工相關的神經動力學自身的特性,得到了發現1和2。相關資料可見圖3和圖5。

發現1

透過理論分析和資料分析,研究者發現了神經動力學的短期變化和長期變化的隨機性存在穩定的差異。

神經動力學的短期變化的變化幅度較小,但動力學隨機性較大;長期變化的變化幅度較大,但動力學隨機性較小;

發現2

同時,研究者發現了混沌現象在神經群中空間分佈的不均勻性。如果研究者不控制神經元活動強度的空間分佈不均勻性,會發現神經元活動混沌程度隨活動強度一樣,從“淺層“向“深層“的神經元遞減

(此處,“層“僅是形象的說法,真實的微觀尺度的神經群中不存在嚴格的分層結構,讀者可以自行將“淺層“和“深層“替換為“上游“和“下游“進行理解)

。當研究者對神經元活動強度進行標準化後

(排除活動強度的空間分佈不均對於混沌現象的影響)

,會發現

相對“淺層“的神經元活動更具有規律性,而相對“深層“的神經元活動的混沌程度更高。

資訊大腦如何從物理大腦中湧現?

圖5。 KS熵及混沌現象在神經群中的空間分佈

而後,研究者對動力學屬性與資訊編碼和解碼的關係進行了探索,得到了發現3和4。具體資料可見圖 6。

發現3

研究者發現特定的神經動力學可能導致資訊編碼和解碼之間互相制約的關係。具體而言,當神經動力學的隨機性

(或混沌程度)

較低時,資訊編碼和解碼的效率以及質量會隨著動力學隨機性上升而上升。但是,當神經動力學的隨機性超過特定閾值後,資訊編碼和解碼的效率及質量就不再同向變化,前者依然隨著動力學隨機性上升而上升,後者則隨動力學隨機性的上升而下降。這意味著,對於動力學隨機性相對大的神經元群,其編碼和解碼的性質之間存在權衡。研究者隨後對這一現象給出了理論證明。

發現4

研究者還發現了神經動力學與神經元對外界刺激的表徵

(neural representation)

之間的關係。具體而言,相對“淺層“的神經元具備更穩定的動力學特性,它們更多負責對刺激分佈的區域性資訊進行特異化編碼和表徵,而相對“深層“的神經元的動力學隨機性更大,它們更多負責對刺激分佈的全域性資訊進行非特異化

(non-specific)

編碼和表徵。

資訊大腦如何從物理大腦中湧現?

圖6。 神經活動的動力學屬性對編碼、解碼及刺激表徵的影響

5。 總結與討論

在該研究中,研究者推導了刺激驅動的神經元叢集動力學的隨機動力學描述。基於隨機動力學,研究者一方面藉助KS熵和Lyapunov譜的數學關係對神經動力學的動力學不確定性和混沌進行刻畫,另一方面直接基於機率框架給出了資訊編碼和解碼屬性的時變度量方法。結合理論推導和實驗資料,研究者解析地探索神經活動的動力學和資訊屬性間的關係,並發現了4個基本性質。

發現1

或對神經訊號記錄

(neural signal recording)

的研究具有一定啟示。研究者已經發現時間取樣率低的訊號記錄技術

(例如fMRI)

不能直接反映潛在的刺激驅動的神經活動[53]。在被這些低時間取樣率的技術記錄之前,短期的神經活動變化需要累積至其變化足夠強烈和魯棒[53],這伴隨著神經活動資訊的大量丟失[53-56]。對於這個問題,一種傳統的解決思路是儘可能開發高時間解析度的記錄技術

(例如多光子顯微鏡[67–69])

。雖然

發現1

部分地支援這一思路,該發現也指出了獲得魯棒的神經活動訊號趨勢和對神經活動資訊的保持是不可兼得的。一個高時間解析度的記錄技術能夠儘可能降低對神經活動資訊的丟失,但其記錄的神經活動短期變化相較於低時間解析度的技術,具有極高的動力學隨機性及較弱的魯棒性。所以,單純提高記錄技術的時間解析度並不能徹底解決這個問題。

在對

發現2

的分析中,如果研究者選擇不消除神經活動強度在空間分佈上的不均勻性,會觀測到神經元活動的混沌程度與神經元活動強度一樣,隨著神經元活動在神經群內的傳播過程而逐漸遞減。Diesmann曾經發現神經元活動在傳播過程中存在一個吸引子[59]。在新近研究中[60],該吸引子被證實為是一個線性吸引子

(line attractor)

。這些研究表明神經動力學可變性會在足夠長的傳播過程中逐漸消失。研究者在更廣義的隨機圖結構中證實了該現象

(參考發現2)

。而當研究者選擇對神經活動強度進行標準化後,發現刺激驅動的神經動力學在越“淺層”的神經元上越穩定,在越“深層“的神經元上越混沌。這一現象與關於刺激驅動對混沌現象的抑制能力

(stimulus drives suppress chaos)

的著名發現[61]是一致的。研究者發現輸入驅動和刺激誘發神經元協同的確能抑制混沌。隨著神經元活動的傳播,這種刺激與神經元間的協同逐漸減弱,並逐漸被網路動力學的混沌所掩蓋。當然,這並不意味著神經元對於刺激的響應徹底變成了混沌而不可靠的。在真實的神經元群中,由神經元調諧特性

(neural tuning properties)

主導的規律性與由網路動力學主導的混沌是共存的。雖然神經元活動的規律性

(regularity)

經常被混沌打破,但神經元活動的混沌程度並不會持續地保持或上升

[例如,見圖 3(b)]

。這些觀測結果與已有研究對刺激驅動的神經活動的混沌程度與可靠性的關係的探索結果一致[62,63]。

發現3

或許對認知功能的神經或皮層基礎定位的研究[15,64,65]有潛在的啟示。這些研究多側重分析特定神經群、神經環路或皮層的資訊加工特性。其分析首先以特定訊號記錄技術

(例如,多光子顯微鏡[66,67]、多電極記錄[68,69]和fMRI)

對神經活動進行記錄,再從資訊編碼[13,70]或解碼[71–73]的角度對神經活動進行分析。研究者指出了這類研究存在的潛在風險——從編碼或解碼角度對資訊加工效率進行直接或間接的度量可能會得到不一致甚至相反的結果

(參考發現3)

。例如,一方面,如果研究者從解碼的角度進行間接分析,那在編碼過程中真正高效的神經元或皮層可能因其較低的解碼效率而被忽略。另一方面,在解碼過程中相對高效的神經元或皮層常有許多不能被刺激解釋的神經活動,這給分析帶來了極大的噪音。這些潛在的風險或許會導致功能研究中的假陰性問題和可重複性問題[74]。

此外,該研究揭示了(1)在神經訊號記錄過程中得到魯棒的訊號趨勢和保持神經活動資訊間的矛盾以及(2)在記錄的神經訊號中編碼和解碼屬性可能存在的制約關係

(參考發現1和3)

。雖然具有高時間解析度的記錄技術能夠捕捉高頻的神經活動變化,短期神經活動變化的高動力學隨機性通常會阻礙研究者得到魯棒的神經訊號並且可能導致編碼、解碼分析結果的不一致。時間解析度較低的記錄技術不能捕捉高頻的神經活動,但其能夠記錄動力學隨機性相對較小的神經活動並在一定程度上避免編碼、解碼分析結果的分歧。所以,一個多時間解析度的

(multitemporal-resolution recording)

神經訊號記錄體系[75–77]或許能兼具高時間解析度和低時間解析度的記錄技術的優點,並在一定程度上克服兩者的缺陷。

發現4

或許對認知神經科學具有一定啟示。研究者指出了“淺層“的神經元活動與刺激分佈的區域性資訊更相關,而“深層“的神經元活動與對刺激分佈全域性資訊的加工更相關

(參考發現2和4)

。在某種程度上,對於刺激分佈全域性資訊的加工可以被理解為神經元在刺激響應過程中所具備的泛化能力。這種自發湧現的差異性指出了“淺層“神經元負責編碼區域性刺激資訊,而“深層“神經元負責編碼全域性刺激資訊的可能。這種自發形成的神經元間的分工體系或許在自下而上的

(bottom-up)

資訊加工過程中具有重要的意義。

參考文獻

[1] G。 Collell and J。 Fauquet, Brain activity and cognition: A connection from thermodynamics and information theory, Front。 Psychol。 6, 818 (2015)

[2] P。 Dayan and L。 F。 Abbott, Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems (MIT Press, Cambridge, MA, 2001)。

[3] A。 S。 Shah, S。 L。 Bressler, K。 H。 Knuth, M。 Ding, A。 D。 Mehta, I。 Ulbert, and C。 E。 Schroeder, Neural dynamics and the fundamental mechanisms of event-related brain potentials, Cerebal Cortex 14, 476 (2004)。

[4] T。 P。 Vogels, K。 Rajan, and L。 F。 Abbott, Neural network dynamics, Annu。 Rev。 Neurosci。 28, 357 (2005)。

[5]  G。 Deco and E。 Hugues, Neural network mechanisms underlying stimulus driven variability reduction, PLoS Comput。 Biol 8, e1002395 (2012)。

[6] B。 L。 Foster, B。 J。 He, C。 J。 Honey, K。 Jerbi, A。 Maier, and Y。 B。 Saalmann, Spontaneous neural dynamics and multiscale network organization, Front。 Syst。 Neurosci。 10, 7 (2016)

[7]  R。 F。 Galán, On how network architecture determines the dominant patterns of spontaneous neural activity, PloS ONE 3, e2148 (2008)。

[8]  S。 Coombes, Large-scale neural dynamics: Simple and complex, NeuroImage 52, 731 (2010)。

[9] D。 R。 Chialvo, Emergent complex neural dynamics, Nat。 Phys。 6, 744 (2010)。

[10] E。 D。 Lumer, G。 M。 Edelman, and G。 Tononi, Neural dynamics in a model of the thalamocortical system。 I。 Layers, loops and the emergence of fast synchronous rhythms, Cerebral Cortex 7, 207 (1997)。

[11] E。 D。 Lumer, G。 M。 Edelman, and G。 Tononi, Neural dynamics in a model of the thalamocortical system。 II。 The role of neural synchrony tested through perturbations of spike timing, Cerebral Cortex 7, 228 (1997)。

[12] M。 Martinello, J。 Hidalgo, A。 Maritan, S。 di Santo, D。 Plenz, and M。 A。 Muñoz, Neutral Theory and Scale-Free Neural Dynamics, Phys。 Rev。 X 7, 041071 (2017)。

[13] A。 Borst and F。 E。 Theunissen, Information theory and neural coding, Nat。 Neurosci。 2, 947 (1999)。

[14] D。 J。 Amit, H。 Gutfreund, and H。 Sompolinsky, Information storage in neural networks with low levels of activity, Phys。 Rev。 A 35, 2293 (1987)。

[15] D。 Purves, R。 Cabeza, S。 A。 Huettel, K。 S。 LaBar, M。 L。 Platt, M。 G。 Woldorff, and E。 M。 Brannon, Cognitive Neuroscience (Sinauer Associates, Sunderland, MA, 2008)

[16] D。 A。 Butts, C。 Weng, J。 Jin, C。-I。 Yeh, N。 A。 Lesica, J。-M。 Alonso, and G。 B。 Stanley, Temporal precision in the neural code and the timescales of natural vision, Nature (London) 449, 92 (2007)。

[17]  G。 Laurent and H。 Davidowitz, Encoding of olfactory information with oscillating neural assemblies, Science 265, 1872 (1994)。

[18] B。 B。 Averbeck, P。 E。 Latham, and A。 Pouget, Neural correlations, population coding and computation, Nat。 Rev。 Neurosci。 7, 358 (2006)。

[19] E。 Harth, T。 Csermely, B。 Beek, and R。 Lindsay, Brain functions and neural dynamics, J。 Theor。 Biol。 26, 93 (1970)。

[20] G。 B。 Ermentrout, R。 F。 Galán, and N。 N。 Urban, Relating Neural Dynamics to Neural Coding, Phys。 Rev。 Lett。 99, 248103 (2007)。

[21] J。 D。 Murray, A。 Bernacchia, N。 A。 Roy, C。 Constantinidis, R。 Romo, and X。-J。 Wang, Stable population coding for working memory coexists with heterogeneous neural dynamics in prefrontal cortex, Proc。 Natl。 Acad。 Sci。 USA 114, 394 (2017)。

[22] B。 Cessac, H。 Paugam-Moisy, and T。 Viéville, Overview of facts and issues about neural coding by spikes, J。 Physiol。 Paris 104, 5 (2010)。

[23] N。 Brenner, S。 P。 Strong, R。 Koberle, W。 Bialek, and R。 R。 d。 R。 v。 Steveninck, Synergy in a neural code, Neural Comput。 12, 1531 (2000)。

[24] C。 E。 Schroeder, D。 A。 Wilson, T。 Radman, H。 Scharfman, and P。 Lakatos, Dynamics of active sensing and perceptual selection, Curr。 Opin。 Neurobiol。 20, 172 (2010)。

[25] W。 E。 Skaggs, B。 L。 McNaughton, and K。 M。 Gothard, An information-theoretic approach to deciphering the hippocampal code, in Advances in Neural Information Processing Systems, edited by J。 Cowan, G。 Tesauro, and J。 Alspector (Morgan Kaufmann, MA, 1993), pp。 1030–1037。

[26] R。 Linsker, Perceptual neural organization: Some approaches based on network models and information theory, Annu。 Rev。 Neurosci。 13, 257 (1990)。

[27] A。 Katok and B。 Hasselblatt, Introduction to the Modern Theory of Dynamical Systems (Cambridge University Press, New York, 1997), Vol。 54。

[28] I。 Aleksandr and A。 Khinchin, Mathematical Foundations of Information Theory (Dover Publications Inc。, New York, 1957), Vol。 54。

[29] L。 Paninski, E。 P。 Simoncelli, and J。 W。 Pillow, Maximum likelihood estimation of a stochastic integrate-and-fire neural model, in Advances in Neural Information Processing Systems, edited by L。 Saul, Y。 Weiss, and L。 Bottou (MIT Press, Cambridge, 2004), pp。 1311–1318。

[30] D。 Heeger, Poisson model of spike generation (unpublished)。

[31] R。 Barbieri, M。 C。 Quirk, L。 M。 Frank, M。 A。 Wilson, and E。 N。 Brown, Construction and analysis of non-Poisson stimulusresponse models of neural spiking activity, J。 Neurosci。 Methods 105, 25 (2001)。

[32] A。 N。 Burkitt, A review of the integrate-and-fire neuron model: II。 Inhomogeneous synaptic input and network properties, Biol。 Cybern。 95, 97 (2006)。

[33] A。 L。 Hodgkin and A。 F。 Huxley, A quantitative description of membrane current and its application to conduction and excitation in nerve, J。 Physiol。 117, 500 (1952)。

[34] R。 B。 Stein, A theoretical analysis of neuronal variability, Biophys。 J。 5, 173 (1965)。

[35] E。 M。 Izhikevich, Simple model of spiking neurons, IEEE Trans。 Neural Netw, 14, 1569 (2003)。

[36] W。 Gerstner and W。 M。 Kistler, Spiking Neuron Models: Single Neurons, Populations, Plasticity (Cambridge University Press, New York, NY, 2002)。

[37] M。 Tsodyks, K。 Pawelzik, and H。 Markram, Neural networks with dynamic synapses, Neural Comput。 10, 821 (1998)。

[38] S。 Grossberg and E。 Mingolla, Neural dynamics of perceptual grouping: Textures, boundaries, and emergent segmentations, in The Adaptive Brain II, edited by S。 Grossberg (Elsevier, 1987), pp。 143–210。

[39] S。 Grossberg and M。 Kuperstein, Neural Dynamics of Adaptive Sensory-Motor Control: Ballistic Eye Movements (Elsevier, Amsterdam, Netherlands, 2011)。

[40] J。 D。 Seelig and V。 Jayaraman, Neural dynamics for landmark orientation and angular path integration, Nature (London) 521, 186 (2015)。

[41] L。 Buesing, J。 Bill, B。 Nessler, and W。 Maass, Neural dynamics as sampling: A model for stochastic computation in recurrent networks of spiking neurons, PLoS Comput。 Biol。 7, e1002211 (2011)。

[42] A。 V。 Herz, T。 Gollisch, C。 K。 Machens, and D。 Jaeger, Modeling single-neuron dynamics and computations: A balance of detail and abstraction, Science 314, 80 (2006)。

[43] G。 Dror and M。 Tsodyks, Chaos in neural networks with dynamic synapses, Neurocomputing 32, 365 (2000)。

[44] S。-I。 Amari, Dynamics of pattern formation in lateralinhibition type neural fields, Biol。 Cybern。 27, 77 (1977)。

[45] K。 Kishimoto and S。-I。 Amari, Existence and stability of local excitations in homogeneous neural fields, J。 Math。 Biol。 7, 303 (1979)。

[46] N。 P。 Rougier, Dynamic neural field with local inhibition, Biol。 Cybern。 94, 169 (2006)。

[47] A。 Hutt, M。 Bestehorn, and T。 Wennekers, Pattern formation in intracortical neuronal fields, Netw。 Comput。 Neural Syst。 14, 351 (2003)。

[48] E。 Montbrió, D。 Pazó, and A。 Roxin, Macroscopic Description for Networks of Spiking Neurons, Phys。 Rev。 X 5, 021028 (2015)。

[49] R。 Engelken, F。 Wolf, and L。 F。 Abbott, Lyapunov spectra of chaotic recurrent neural networks, arXiv:2006。02427。

[50] H。 Sompolinsky, A。 Crisanti, and H。-J。 Sommers, Chaos in Random Neural Networks, Phys。 Rev。 Lett。 61, 259 (1988)

[51] “A meeting with Enrico Fermi“ in Nature 427 (22 January 2004) p。 297

[52] Tian Y, Li G, Sun P。 Bridging the information and dynamics attributes of neural activities[J]。 Physical Review Research, 2021, 3(4): 043085。

[53] N。 K。 Logothetis, J。 Pauls, M。 Augath, T。 Trinath, and A。 Oeltermann, Neurophysiological investigation of the basis of the FMRI signal, Nature (London) 412, 150 (2001)。

[54] K。 Lundengård, in Mechanistic Modelling—A BOLD Response to the fMRI Information Loss Problem, Linköping University Medical Dissertations (Linköping University Electronic Press, Linköping, Sweden, 2017), Vol。 1591。

[55] A。 Ekstrom, How and when the FMRI bold signal relates to underlying neural activity: The danger in dissociation, Brain Res。 Rev。 62, 233 (2010)。 [62] K。 D。 Singh, Which neural activity do you mean? FMRI, MEG, oscillations and neurotransmitters, Neuroimage 62, 1121 (2012)。

[56] B。 Li, C。 Wu, M。 Wang, K。 Charan, and C。 Xu, An adaptive excitation source for high-speed multiphoton microscopy, Nature Methods 17, 163 (2020)。

[57] M。 J。 Levene, D。 A。 Dombeck, K。 A。 Kasischke, R。 P。 Molloy, and W。 W。 Webb, In vivo multiphoton microscopy of deep brain tissue, J。 Neurophysiol。 91, 1908 (2004)。 [58] F。 Helmchen and W。 Denk, New developments in multiphoton microscopy, Curr。 Opin。 Neurobiol。 12, 593 (2002)。

[59] M。 Diesmann, M。-O。 Gewaltig, and A。 Aertsen, Stable propagation of synchronous spiking in cortical neural networks, Nature (London) 402, 529 (1999)。

[60] Z。 Xiao, J。 Zhang, A。 T。 Sornborger, and L。 Tao, Cusps enable line attractors for neural computation, Phys。 Rev。 E 96, 052308 (2017)。

[61] L。 Molgedey, J。 Schuchhardt, and H。 G。 Schuster, Suppressing Chaos in Neural Networks by Noise, Phys。 Rev。 Lett。 69, 3717 (1992)。

[62] G。 Lajoie, K。 K。 Lin, and E。 Shea-Brown, Chaos and reliability in balanced spiking networks with temporal drive, Phys。 Rev。 E 87, 052901 (2013)。

[63] G。 Lajoie, J。-P。 Thivierge, and E。 Shea-Brown, Structured chaos shapes spike-response noise entropy in balanced neural networks, Front。 Comput。 Neurosci。 8, 123 (2014)。

[64] R。 E。 Passingham, K。 E。 Stephan, and R。 Kötter, The anatomical basis of functional localization in the cortex, Nat。 Rev。 Neurosci。 3, 606 (2002)。

[65] A。 Gholipour, N。 Kehtarnavaz, R。 Briggs, M。 Devous, and K。 Gopinath, Brain functional localization: A survey of image registration techniques, IEEE Trans。 Med。 Imaging 26, 427 (2007)。

[66] G。 D。 Reddy, K。 Kelleher, R。 Fink, and P。 Saggau, Threedimensional random access multiphoton microscopy for functional imaging of neuronal activity, Nat。 Neurosci。 11, 713 (2008)。

[67] K。 W。 Dunn and T。 A。 Sutton, Functional studies in living animals using multiphoton microscopy, ILAR J。 49, 66 (2008)。

[68] I。 Ulbert, E。 Halgren, G。 Heit, and G。 Karmos, Multiple microelectrode-recording system for human intracortical applications, J。 Neurosci。 Methods 106, 69 (2001)。 [69] D。 D。 Cox, A。 M。 Papanastassiou, D。 Oreper, B。 B。 Andken, and J。 J。 DiCarlo, High-resolution three-dimensional microelectrode brain mapping using stereo microfocal x-ray imaging, J。 Neurophysiol。 100, 2966 (2008)。

[70] I。 Nemenman, G。 D。 Lewen, W。 Bialek, and R。 R。 D。 R。 Van Steveninck, Neural coding of natural stimuli: Information at sub-millisecond resolution, PLoS Comput。 Biol。 4, e1000025 (2008)。

[71] S。 Wu, S。-i。 Amari, and H。 Nakahara, Population coding and decoding in a neural field: A computational study, Neural Comput。 14, 999 (2002)。

[72] R。 Q。 Quiroga and S。 Panzeri, Extracting information from neuronal populations: Information theory and decoding approaches, Nat。 Rev。 Neurosci。 10, 173 (2009)。

[73] T。 Toyoizumi, K。 Aihara, and S。-I。 Amari, Fisher Information for Spike-Based Population Decoding, Phys。 Rev。 Lett。 97, 098102 (2006)。

[74] M。 Brett, I。 S。 Johnsrude, and A。 M。 Owen, The problem of functional localization in the human brain, Nat。 Rev。 Neurosci。 3, 243 (2002)。

[75] S。 Qin and Z。 Ji, Multi-Resolution Time-Frequency Analysis for Detection of Rhythms of EEG Signals, in 3rd IEEE Signal Processing Education Workshop (IEEE, 2004), pp。 338–341。

[76] Y。 Li, H。-L。 Wei, S。 A。 Billings, and P。 Sarrigiannis, Time-varying model identification for time–frequency feature extraction from EEG data, J。 Neurosci。 Methods 196, 151 (2011)。

[77] K。 Indiradevi, E。 Elias, P。 Sathidevi, S。 D。 Nayak, and K。 Radhakrishnan, A multi-level wavelet approach for automatic detection of epileptic spikes in the electroencephalogram, Comput。 Biol。 Med。 38, 805 (2008)。