評分者信度分析-kappa統計
來源:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3900052/
Kappa是用來評估測試中評分者評分的可靠程度,評分者評分的重要性在他代表研究中所蒐集數據方法的一致性,尤其是研究中有多個評分者時,評分標準的一致程度,也代表評分者訊息的可靠信。
那為何會發生這樣的問題呢?所謂了可靠性有兩種,第一個是有多個資料收集者的內部可靠性 (interrater reliability),還有單一資料收集者的評估者內部的可靠性 (intrarater reliability)。當面對完全相同的情況時,每位收集資料者是否會記錄下完全相同的數據紀錄,這就會關係到收集數據的一致信與可靠信。
為了評估收集資料的可靠信,統計學家Jacob Cohen提出了Cohen's kappa來計算收集評分數據的一致程度。
百分比一致度 (Percent agreement)
百分比的一制度的計算方式為所有變數的數量 (Var#)除以有差異的變數量 (Difference),這種方式不僅限於兩個評分者,可以推廣到多的評分者
![]() |
| figure from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3900052/ |
Cohen’s kappa
Cohen's kappa可用於評估多個評估者間或是單個評分者內的可靠性
$\kappa=\frac{Pr(a)-Pr(e)}{1-Pr(e)}$
Pr(a)代表實際觀察的一致性,Pr(e)則是代表機會的一致性
Pr(e)的計算方式如下
$Expected(Chance) Agreement = \frac{\frac{cm^1\times rm^1}{n} + \frac{cm^2\times rm^2}{n}}{n}$
$cm^1$ 代表第一列的邊緣
$cm^2$ 代表第二列的邊緣
$rm^1$ 代表第一行的邊緣
$rm^2$ 代表第二行的邊緣
$n$ 觀察值的數量
以下圖為例
$Pr(e) = \frac{\frac{157*150}{222}+\frac{65*72}{222}}{222} \approx 0.583$
$Pr(a) = \frac{147+62}{222} \approx 0.94$



沒有留言:
張貼留言