實驗室討論

動態因果模型(DCM): DCM -神經質量模型和貝葉斯推理

本文討論了應用於腦電圖的DCM中的神經質量模型和貝葉斯推理的核心組成部分。

以前的網站我們研究了腦電數據動態因果模型(DCM)的主要組成部分。在這裏,我們將詳細介紹DCM的核心組件——神經質量模型和貝葉斯推斷。總結一下,腦電圖DCM的主要步驟是

圖1:DCM分析涉及的主要步驟。根據SPM課程幻燈片重新解釋的圖。

神經質量模型

DCM的模型規範包括關於不同皮層區域如何相互作用的多種假設。每個皮質區域都使用所謂的神經塊模型來建模——一個描述皮質區域動態的數學模型。具體來說,它是一組描述皮層區域亞群之間相互作用的常微分方程,可能包括例如抑製性中間神經元、興奮性中間神經元和錐體神經元。

圖2:每個被建模的神經塊都可以被描述為不同神經元亞群之間相互作用的理論構建,包括向後連接和橫向連接[1]

神經塊模型最初是由Jansen和Ritt[2]提出的,用來模擬皮質柱的動力學。今天,這個模型的許多擴展版本(有更多的耦合微分方程!)通常被用來建模腦電/腦磁圖活動的生成。我們不會深入探討神經塊模型及其有效性的細節(但要想深入了解,請參考[3-4]並參見計算神經科學的危機而且神經膠質細胞在網絡活動中的關鍵角色)

在這一點上,為了理解方法論的目的,該模型中的每個神經元源都用一組微分方程表示,這些微分方程有幾個具有一定生物學意義的參數。這些參數包括突觸增益、亞種群間突觸接觸的平均數量等[3-4]。

假設我們有兩個相互作用的神經元源。在數學上,這可以用兩個神經質量模型來建模,它們之間的相互作用被建模為額外的參數。一般來說,我們可以使用一個神經質量模型種群來建模N個相互作用的神經源,如下圖所示,為了簡單起見,我們假設每個種群隻有金字塔神經元和抑製性中間神經元,Kij表示種群i和j之間的連接,ad表示連接延遲[4]。

F圖3:[4]神經塊模型的示意圖

貝葉斯推理

既然我們已經指定了候選模型,下一步就是進行模型反演,即給定EEG/MEG數據和其他已知參數,找到最適合數據的未知參數。這就是貝葉斯方法被稱為變分貝葉斯的地方。由於貝葉斯方法將未知參數視為隨機變量,所推斷的是參數上的概率分布,而不是單個值。我們還可以指定參數的先驗概率分布,在看到任何數據之前,這些參數將表達我們對該參數的信念或假設。

回想一下貝葉斯定理,它是

圖3:貝葉斯定理

Where p(y|) is the likelihood (i.e., the forward model in EEG that expresses how unknown parameters of the neural sources are mapped to the EEG data y) and p() is the prior distribution over the parameters. The denominator, also known as the model evidence, nothing but the marginal probability p(y) ( See神經影像學貝葉斯定理入門).

讓我們假設有N個候選模型m1到mN我們想要檢驗。The first task then is to estimate the posterior distribution of for each m, i.e., p(| y, m) (In DCM along with parameters that states x are also estimated, but for simplicity we will refer to p(,x | y, m) as p(| y, m)) . In many cases, this distribution cannot be obtained in closed form as it is very hard to compute the denominator in the above equation, which can include high-dimensional integrals, which cannot be solved analytically. In DCM, an approximation approach known as variational Bayes algorithm [5] is used, where the aim is slightly less ambitious – rather than find the true posterior distribution, try to find a distribution from a family of distributions that is as close as possible to this true posterior distribution.

那麼我們如何衡量這種親密程度呢?幸運的是,有一種簡單的方法可以做到這一點——使用所謂的Kullback-Leibler散度!你可以把它看作是一個距離測量,但是對於概率分布來說。但與距離測量不同,這不是對稱測量。即對於任意兩個概率分布p()和q(), p()和q()之間的KL散度不等於q()和p()之間的KL散度。如果您對算法的更多技術方麵感興趣,可以參考許多參考資料(例如,參見[5])。現在,我們將堅持簡單的解釋,VB算法首先從分布Q家族初始化q0(),然後迭代嚐試最小化KL散度。在下麵的圖中,經過一定的迭代,我們找到了一個分布q*(),它對真正的後驗p(| y, m)具有最小的KL散度。但是等一下,p(| y, m)依賴於模型證據p(y),很難計算,那麼我們如何測量q()和p(| y, m)之間的KL散度呢?

圖5變分貝葉斯算法迭代優化示意圖

這就是數學上有點複雜的地方。實際上,在變分貝葉斯算法的框架下發生的是KL散度通過最大化另一個量來最小化。經過一些數學運算,我們可以將模型證據表示為兩個量的和

模型證據= L + KL散度(q(), p(| y, m))

由於KL散度總是大於等於0(當q() = p(| y, m)時為0),模型證據> L。這個術語L被稱為證據下界(ELBO)(也被稱為負變分自由能),因為它確實是模型證據的下界。當我們試圖使ELBO最大化時,我們反過來也使KL散度最小化,在KL散度等於零的最佳情況下!

這就是DCM的兩個重要步驟。在下一篇博文中,我們將探討如何在DCM中進行貝葉斯模型選擇(即,在給定一組候選模型的情況下選擇最佳模型),以及EEG數據的一些應用。

參考文獻

[1] Kiebel S.J。加裏多,M.I。莫蘭,R,陳,c c。和Friston, K.J.(2009),腦電和腦磁圖的動態因果建模。嗡嗡聲。攻讀碩士學位的大腦。,30: 1866-1876.https://doi.org/10.1002/hbm.20775

(1995)腦皮層柱耦合模型中腦電圖與視覺誘發電位的產生。生物醫學工程。Cybern。,73, 357±366.

[3] Wendling, F.等人“癲癇快速活動可以用受損的GABAergic樹突抑製模型來解釋。”歐洲神經科學雜誌15.9(2002):1499-1508。

溫德林,F.和P.肖維爾。過渡到顳葉癲癇發作活動:宏觀模型的見解癲癇病的計算神經科學。學術出版社,2008年。356 -十四。

[5] Blei, D. M., Kucukelbir, A., & McAuliffe, J. D.(2017)。變分推斷:統計學家的回顧。美國統計協會雜誌,112(518),859-877。

留下一個回複