在當前的人工智能(AI)和機器學習(ML)領域,模型的透明性與可解釋性愈加重要。隨著這些模型廣泛應用於決策過程中,從醫療診斷到金融風險評估,理解模型如何做出決策變得至關重要。SHAPSHapley 加法解釋)值因此應運而生,旨在滿足這一需求。SHAP 值是一種基於合作博弈論的解釋方法,它將模型的輸出分解為各個特徵的貢獻,幫助用戶更好地理解模型的運行機制。

 

1.SHAP 值的原理

        SHAP 值的理論基礎來自 Shapley 值,該理論最初是為了解決合作博弈論中如何公平地分配團隊成果給每個參與者的問題。在機器學習中,每個「參與者」可以被視為模型的特徵。通過計算每個特徵對模型輸出的貢獻,SHAP 值為解釋模型決策提供了一條清晰的路徑。具體來說,SHAP 值根據不同特徵組合,計算每個特徵在不同情境下的影響,並取平均值以衡量其重要性。例如,Choi Abdirayimov2024)的研究展示了 SHAP 值如何解釋非傳統的機器學習應用,例如在分類漫威角色好壞時平衡數據集偏差與模型透明度。他們的研究表明,SHAP 值不僅有助於研究人員理解模型的內部運作,還能揭示數據集中的潛在偏差,從而改善模型的公平性。

 

2.SHAP 值的優點

         SHAP 值的主要優勢在於它提供了一種一致且理論上合理的方法來分配每個特徵對模型決策的影響。與其他解釋方法(如 LIME(可參考https://reurl.cc/WNNZz5)或特徵重要性)相比,SHAP 值具有以下顯著優勢:

 

*全局和局部解釋:SHAP 值可以同時提供模型的全局解釋和單個預測的局部解釋。例如,SHAP 值能告訴我們在某一特定預測中,哪些特徵貢獻最大。

*特徵交互作用的考慮:SHAP 值能夠考慮特徵之間的相互影響,而不僅僅是將特徵獨立對待,這使其能夠更準確地解釋模型輸出。

*一致性:SHAP 值提供的特徵貢獻具有一致性,這意味著更重要的特徵始終會被賦予較高的 SHAP 值,這對於模型解釋的穩定性和可靠性至關重要。

 

 

3.SHAP 值的局限性

                儘管 SHAP 值在解釋機器學習模型方面有很多優勢,但也存在一些局限性。首先,計算 SHAP 值的過程非常耗時,尤其是在大型數據集或複雜模型中。每次計算需要考慮所有可能的特徵組合,處理高維數據時效率較低。為了解決這一問題,Alkhatib Boström2024)提出了 FF-SHAP 方法,這是一種快速近似 SHAP 值的技術,在數據有限時提高了計算效率。此外,Huang Marques-Silva2024)的研究指出,SHAP 值有時可能會提供誤導性的特徵重要性信息,尤其是在具有高度相關特徵的模型中。SHAP 值可能高估或低估某些特徵的重要性,從而對解釋結果產生負面影響。因此,研究人員強調,在使用 SHAP 值解釋模型時需謹慎,並應結合其他解釋方法以減少誤差。

 

4.SHAP 值的應用場景

        SHAP 值已廣泛應用於多個領域,尤其是在需要高解釋性的場景中。例如,在醫療領域,SHAP 值可以幫助醫生理解 AI 模型如何做出診斷決策,從而提高醫生對模型的信任度。在金融領域,SHAP 值可以解釋風險評估模型,幫助決策者做出更透明的信貸決策。

 

5.實際應用中的挑戰

                    隨著 SHAP 值的廣泛應用,研究人員也開始關注其實際應用中的挑戰。正如前述 Huang Marques-Silva 的研究指出的,SHAP 值在某些情況下可能會導致誤解,因此在應用時必須慎重。此外,對於大型模型或數據集,計算 SHAP 值的高計算成本也是一大障礙。因此,研究人員正在積極開發快速近似技術,以減輕計算負擔。

 

6.總結

        SHAP 值是當前機器學習解釋工具中最具影響力的方法之一,為提升模型透明性與可解釋性提供了重要途徑。儘管 SHAP 值在理論上具有一致性與全局解釋的優勢,但其應用也面臨一定挑戰,包括高計算成本和在某些情況下可能提供誤導性信息。因此,研究人員應謹慎使用 SHAP 值,並結合其他方法以提供更全面的解釋。隨著 SHAP 值的進一步發展及其快速近似技術的成熟,預計該方法將在更多應用場景中發揮更大的作用。

 

7.R語法範例

                  以下是一個簡單的 R 語法範例,展示如何計算 SHAP 值並進行可視化。此範例使用的是 xgboost SHAPforxgboost 套件,適用於 XGBoost 模型:

# 載入套件

library(xgboost)

library(SHAPforxgboost)

library(ggplot2)

# 準備數據集

data(iris)

iris$Species <- as.numeric(iris$Species == "setosa")  # 'setosa' 作為正類別

X <- as.matrix(iris[, -5])  # 使用前四列作為特徵

y <- iris$Species

# 轉換為 xgboost DMatrix 格式

dtrain <- xgb.DMatrix(data = X, label = y)

# 訓練 XGBoost 模型

params <- list(objective = "binary:logistic", booster = "gbtree")

model <- xgboost(data = dtrain, params = params, nrounds = 50, verbose = 0)

# 計算 SHAP

shap_values <- predict(model, newdata = X, predcontrib = T)

# 視覺化 SHAP

xgb.plot.shap(data = X, model = model, top_n = 4)

# 計算每個特徵的平均絕對 SHAP

mean_shap <- apply(abs(shap_values), 2, mean)

shap_summary <- data.frame(Feature = names(mean_shap), MeanSHAP = mean_shap)

# SHAP 值大小排序

shap_summary <- shap_summary[order(shap_summary$MeanSHAP, decreasing = TRUE), ]

# 繪製 SHAP Summary Plot

ggplot(shap_summary, aes(x = reorder(Feature, MeanSHAP), y = MeanSHAP)) +

  geom_bar(stat = "identity", fill = "steelblue") +

  coord_flip() +

  theme_minimal() +

  labs(title = "SHAP Summary Plot", x = "Feature", y = "Mean |SHAP|")

此語法將使用 XGBoost 訓練模型,並計算每個特徵對預測的 SHAP 值,最後通過總結圖顯示 SHAP 值的分佈及影響力。

 

 

參考資料:

https://medium.com/ai-academy-taiwan/%E5%8F%AF%E8%A7%A3%E9%87%8B-ai-xai-%E7%B3%BB%E5%88%97-shap-2c600b4bdc9e

https://cran.r-project.org/web/packages/SHAPforxgboost/index.html

https://www.jmis.org/archive/view_article?pid=jmis-11-2-167

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 晨晰部落格新站 的頭像
    晨晰部落格新站

    晨晰統計部落格新站(統計、SPSS、BIG DATA討論園地)

    晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()