公告版位
- Dec 02 Mon 2024 09:12
晨晰統計2025線上統計課程~~
- Nov 18 Mon 2024 08:58
SHAP 值在機器學習的應用
在當前的人工智能(AI)和機器學習(ML)領域,模型的透明性與可解釋性愈加重要。隨著這些模型廣泛應用於決策過程中,從醫療診斷到金融風險評估,理解模型如何做出決策變得至關重要。SHAP(SHapley 加法解釋)值因此應運而生,旨在滿足這一需求。SHAP 值是一種基於合作博弈論的解釋方法,它將模型的輸出分解為各個特徵的貢獻,幫助用戶更好地理解模型的運行機制。
- Nov 11 Mon 2024 09:09
使用SPSS合併資料(merge data)-新增變數(二)
操作(有關鍵變數-兩檔案皆提供觀察值):
(8)為了按照編號來合併兩個檔案,先勾選「匹配已排序檔案關鍵變數的觀察值」,預設值為「兩者皆提供觀察值」,代表就算兩邊檔案收錄的樣本不完全相同,無論以國語成績或是數學成績的頁面來操作,所有樣本最後都會一同留置在新的資料集中。
- Oct 28 Mon 2024 09:06
使用SPSS合併資料(merge data)-新增變數(一)
這篇文章要來教大家實用的資料處理-合併資料,過去在接收客戶的資料時,常常遇到客戶將資料建檔在不同的資料集中,有些是按照不同的測驗階段分別建立,有些則按照問卷不同部分分別建立,但無論如果建立檔案,最後都必須整併在同一個檔案之下才方便進行分析,此時就需要用到合併資料的功能。此次示範的兩個檔案(如下圖),一個為國語成績,共7名樣本,編號為ID1至ID7,另一個為數學成績,共7名樣本,編號為ID4至ID10,因此兩個檔案的交集樣本為ID4至ID7,共4名樣本,在操作選項中,有4種不一樣的設定,下面將一一說明。
- Oct 07 Mon 2024 09:06
機器學習與統計學的優質資源推薦
在數據科學和人工智慧迅速發展的今天,機器學習和統計學已成為各行各業中的重要技能。不過,這些領域的學習資源繁多且分散,對於初學者而言,選擇適合的學習平台和內容至關重要。本文將推薦兩個極具價值的學習資源:吳恩達教授的機器學習課程和YouTube頻道「StatQuest with Josh Starmer」,這些資源將幫助讀者更系統地掌握機器學習和統計學的基礎知識和實踐技能。
一、吳恩達教授的機器學習課程
- Sep 30 Mon 2024 09:05
Bagging 與 Boosting的比較
集成學習是一種通過結合多個模型來提升機器學習預測性能的方法。相較於單一模型,集成學習能產生更準確且穩定的結果,其核心理念是訓練一組分類器(或專家),並通過集體投票來決策。Bagging 和 Boosting 是集成學習中常見的兩種技術,這兩者都能減少單一模型的方差,從而提升模型的穩定性。Bagging跟Boosting 同為同質弱學習器模型,但其工作方式不同,我們將深入探討這兩者之間的差異。
- Sep 16 Mon 2024 09:30
SPSS操作成對樣本t檢定(Paired sample t test)
一般我們看到的t檢定,通常指的是獨立樣本t檢定(Independent sample t test),用來比較兩組獨立群體在連續變項上的差異,因此適用條件有兩個重點,(1)要比較的變項為連續尺度的變項(若要更嚴格的定義,則必須符合常態性的假設),(2)兩組數據來自兩個相互獨立的群體,不受彼此的影響。
- Sep 09 Mon 2024 09:03
XGBoost模型的介紹
XGBoost,全名為 Extreme Gradient Boosting,是一種先進的機器學習算法,特別適合於分類和回歸任務。自 2016 年由陳天奇推出以來,XGBoost 以其卓越的性能和靈活性迅速成為數據科學領域的熱門工具,被廣泛應用於許多實際問題中,特別是在Kaggle的競賽中經常會見到。
- Aug 26 Mon 2024 09:04
原來次數分配還能這樣用-以SPSS操作(二)
不久之前有提到可以用次數分配來檢查我們的原始資料,今天將做個延伸,分享一些次數分配可以搭配的分析工作,以及一些功能的說明,本篇將內容分成(1)提供組別合併資訊;(2)分組規劃;(3)豐富的描述性統計量;(4)提供統計圖。
- Aug 19 Mon 2024 09:04
原來次數分配還能這樣用-以SPSS操作(一)
不久之前有提到可以用次數分配來檢查我們的原始資料,今天將做個延伸,分享一些次數分配可以搭配的分析工作,以及一些功能的說明,本篇將內容分成(1)提供組別合併資訊;(2)分組規劃;(3)豐富的描述性統計量;(4)提供統計圖。
提供組別合併資訊: