實驗室討論

熵和腦電圖

腦電圖中的熵測量

熵度量腦電圖中的不確定性,它大致等於可能的配置或它們的可預測性。然而,有許多方法和參數的選擇可以從根本上改變結果和意義。

熵的基本概念

熵的概念最早出現在熱力學領域,是一個典型的物理解釋,熵是一個係統的無序狀態,用氣體或流體係統分子的分布概率來描述。香農將這一概念引入信息論領域,並定義了俗稱的統計熵,

H = -Σ p(x)log(p(x))

為了使統計熵的概念更直觀,考慮一個從集合S={1, 2, 3}中選擇一個數的實驗,以及選擇每一個數的概率。假設在一種情況下,選擇每個數字的概率相等,如下所示:

P(1) =1/3, P(2) =1/3, P(3) =1/3。

把這些值代入上麵的方程,熵H是1.09。

如果你隻能選擇數字1這意味著隻有可能。它有如下的概率H = 0。

P(1) = 1, P(2) = 0, P(3) = 0,

讓我們考慮另一種情況,你可以選擇1或2,但不能選擇3,那麼概率是

P(1) = 1/2, P(2) = 1/2, P(3) = 0,

H=0.69,介於兩者之間。所以當可能性數量最大時熵最大當隻有一種可能性時熵最小。從另一個角度來看,最大熵是指所有結果都是等可能的,因此對結果的不確定性或無知程度最高。當我們對結果有更多的確定性時,熵就更低。當熵為0時,這是信息最大的情況,此時不需要進行實驗,因為我們知道結果總是1!

因此,熵隻是在統計意義上量化了不確定性或無知,它相當於係統的可能性的可能配置。這是一個相當粗糙的解釋,但它有助於形成一些關於概念的直覺。

熵在腦電圖

將熵的概念應用於時間序列,如腦電圖(EEG)是一種量化的方法,在統計意義上,模式的不確定性或隨機性的數量,這也大致相當於信號中包含的信息量。時域的熵度量通常將信號分解成片段,然後直接(在時域)或經過某種信號轉換(如功率譜密度)後進行相似性比較。這通常取決於幾個基本參數-所選擇的段的長度,信號的變換(如果有的話)和距離度量或段的比較方式。其他類型的熵首先利用不同的方法將腦電信號轉換到頻域,如傅裏葉變換或者更複雜的方法,比如小波,觀察這些變換後的特征。

在做出這些不同的選擇時,每一個熵度量都會對信號的哪些方麵是有意義或重要的進行量化做出一些隱含的假設。一些熵測量著眼於時間域片段之間的矢量距離,而其他的則著眼於信號的轉換元素,如頻譜內容或振蕩元素或小波。這當然是有意義的,因為如果你碰巧選擇了信號的一個無關方麵,它可能是沒有意義的。舉個例子,如果你想比較單詞,但你不知道它們是單詞,而是觀察每個字母的符號之間的差異——b可能在形狀上更接近d,而不是x,但這將錯過語言的重點。挑戰在於先天的我們不完全知道腦電圖信號的哪個方麵是相關的。

這對腦電圖有什麼用呢?到目前為止,它最顯著的影響是在麻醉中看到的,大多數測量的熵隨著麻醉的減少而減少,這表明當你在麻醉下時,信號變得更可預測或重複。它也被用來對疾病狀態進行分類,比如精神分裂症。當然,認知的其他方麵也可能與熵有關。

假設和問題

假設選擇的信號的方麵是相關的,有不同的問題要記住。一是信號中的噪聲,它會對熵的度量產生影響,特別是在較短的段長度的時域度量中。在這些措施中做的另一個常見的假設是,手邊的信號是平穩的,即,如果數據被分成多個窗口,每個窗口中的值的統計分布是相同的。通常情況並非如此,特別是對於腦電圖信號和功率譜的計算。緩解這一問題的一種常見方法是將數據分成多個“平穩”段,但對於腦電圖數據的這一段的長度並沒有真正的共識。此外,這些方法通常需要足夠大量的數據(這可能違反“平穩性”要求),這使得它們在實驗腦電圖數據上的應用具有挑戰性。雖然已經證明SampEn在更短的數據長度下更一致,工作良好,但低信噪比仍然是一個問題。

總的來說,熵測量是用來量化在統計意義上,不規則或不確定性的生物信號,如腦電圖。這可以在時域或頻域完成。使用變換和所有相關參數的選擇隱含了信號中什麼是重要的,並可能導致非常不同的結果。

下麵我們將提供一個常見熵度量的教程。

時域的熵

時域常用的兩種方法是近似熵和樣本熵。這些被用來量化腦電圖信號波形模式的可重複性或可預測性的數量。

近似或樣本熵的計算基本上取決於三個參數- 1)窗口長度- m(用於比較的信號長度),2)相似性閾值- r和3)數據n的長度。它基本上是這樣工作的:

給定一個由N個點組成的腦電圖時間序列,我們創建一組長度為m的更小的片段x(i)這裏沒有長度為m的數據塊,它位於腦電圖中的時間點“i”。我們對每個點都這樣做從第一個到最後一個都有可能得到一個m長度的線段。對於一個長度為N的腦電圖信號,會有N-m+1個這樣的片段。x(1),x(2),……x(n - m + 1))。然後,我們尋求這個問題的答案:線段x(i)和其他線段有多相似?這裏,相似性是使用閾值“r”定義的,這通常是兩個數據段之間的距離度量(本質上是矢量距離或兩個m維點之間的距離)。如果距離小於閾值' r ',我們就給它賦值1(也就是說,這些片段是相似的),否則我們就給它賦值0。對於每一個部分x(i)然後我們計算一個量C(i,r,m),它是與segment相似的線段的分數

C(i,r,m) =(與區塊x(i)相似的片段數量)/(片段總數)。

現在我們計算所有分段的這些相似度分數的對數的平均值(對數使得很小的分數不會顯著地扭曲分布)。

A(m,r) = 1/(N-m+1) * Σ log (C(i,r,m))(記住N-m+1是段的數量)

現在我們對段長m+1重複上述過程,並類似地定義B(m+1,r)。現在近似熵的計算為

AppEn(m,r) = A(m,r) - B(m+1,r)

近似熵值越低,表明信號越規則或重複。隨機或不規則的信號往往具有較高的近似熵值。這是顯而易見的,因為如果信號是重複的,那麼當計算上述統計數據時,塊大小m和m+1之間不會有太大的差異!還要注意的是,為了避免出現沒有類似分段的情況x (I)將導致log(0)(未定義!),近似熵計數自匹配,這可以使它有偏差。

樣本熵與近似熵在兩個方麵不同

1)不涉及自我匹配和

2)不做分段相似度的兩兩匹配。

相反,人們試圖計算統計數據A(m,r)為

A(m,r) =x(j)閾值' r '範圍內的向量x(i)向量)/ (N-m)

其中j=1…N-m和j≠i.我們可以類似地定義B(m+1,r)並計算樣本熵為

SampEn = -log (A(m,r) / B(m+1,r))

同樣,較小的樣本熵值表明信號的重複性,較高的值表明不規則性。

頻域的熵

在頻域計算熵的基本思想包括將時域信號轉換為頻域,使用標準工具如傅裏葉變換或更先進的方法如小波。這就產生了兩種不同的熵測度- 1)光譜熵和2)總小波熵

譜熵

譜熵要求功率譜密度(PSD)通過離散傅裏葉變換(DFT)得到的腦電信號。給出兩個感興趣的頻率點,比如f1和f2,這些頻率之間的功率譜被歸一化,譜熵由香農熵定義計算

SE = -Σ P_norm log(P_norm),

對f1和f2之間的所有頻率求和。對於單頻周期信號,SE將接近於零(想想我們描述的實驗,其中P(X=1) =1!)對於白噪聲,隨機信號的SE值要高得多,因為隨機噪聲包含所有頻率的功率(很像上麵描述的實驗,所有輸出都是等可能的)。

看到相關的職位腦電圖中的藍色青蛙

總小波熵

我們可以使用小波將腦電圖信號分解為多個分辨率級別,並計算每個級別“j”的相對能量

p(j) = (j能級能量)/(各能級總能量)

Shannon給出的小波總熵定義為

TWE = -Σ p(j)log(p(j))

其中的總和是所有分解層的總和。TWE測量信號的有序/無序程度。就像在頻譜熵的情況下,一個正弦信號的TWE值會非常低,幾乎接近於零,而對於一個能量分布在所有波段的隨機信號,它的TWE值會很高。

一個關於"腦電圖中的熵測量

留下一個回複