公告版位
- Mar 28 Mon 2022 08:58
Group-based trajectory model介紹(下,共2篇)-晨晰統計林星帆顧問整理
- Mar 21 Mon 2022 08:56
Group-based trajectory model介紹(上,共2篇) -晨晰統計林星帆顧問整理
在臨床研究中常見重複測量的資料,或稱為縱貫資料(longitudinal data),而用來分析縱貫資料的分析方法有許多種,當代主流的分析方法有(1)混合模式(Mixed model)或稱為隨機效果模型(Random effect model)/多層次模型(Multilevel model)以及(2)廣義估計方程式(Generalized estimating equation; GEE),此兩種分析方法在過去晨晰統計部落格已有許多介紹,有興趣的讀者可以搜尋相關文章。
一、使用 GBTM 的時機
- Mar 11 Fri 2022 09:01
缺乏美感的你,如何快速做出精美POWER BI圖表??
- Mar 07 Mon 2022 09:04
護理領域還有什麼統計方法可以做??不如試試用AMOS做結構方程SEM
每當評估一個新的案件,當然是直接翻到第三章的研究方法,除了看看研究架構與假設之外,還要看一下使用的統計方法,關於護理領域的研究,根據多年的經驗,主要的設計有兩種,一種是實驗研究,近期最多人使用的,就是利用廣義估計方程(Generalized estimating equation, GEE)探討介入的效果,另一種是關聯性研究,瞭解變項之間的關係,統計方法不外乎就是卡方、獨立t、ANOVA,最後再迴歸分析為主軸作為收尾,固定的統計方法卻能讓論文一直不斷被產出,除了因為樣本的多樣性與特殊性之外,另一個極大的優勢,就是有非常多已經發展具有信效度的研究量表,這將為護理研究人員省下許多的時間與精力。
如果您對於上述的統計方法都做到膩了,不如嘗試比較進階一點的結構方程模式(structural equation modeling, SEM),這裡講的是較進階,並不是較新,畢竟結構方程SEM算是比較有資歷的統計方法了,您或許會有疑問,為什麼沒聽過,這也是我的疑問,因為我也很少遇到護理研究有使用,所以推薦給你們,另外搭配軟體AMOS,您一定會很意外,這好像也沒有很困難。
- Feb 21 Mon 2022 08:56
複選題的資料處理及分析(三)
- Feb 14 Mon 2022 09:51
複選題的資料處理及分析(二)
- Feb 07 Mon 2022 09:34
複選題的資料處理及分析(一)
複選題的設計,常出現問卷設計中,收集受訪者同時出現兩個以上的答案,在資料的鍵檔上,將每個選項分開,是比較好分析的格式設計,但資料輸入時,有些研究為了提高輸入效率,選擇把複選題的答案輸入在同一欄位,並用指定符號隔開選答,以下圖為例,是在收集個案的慢性病情形,以三種慢性病為例(欄B至欄D),若個案有該慢性病,以輸入數值1來表示,反之則輸入0,雖然1/0的輸入方式並非絕對,但為了日後使用方便,1/0的輸入方式還是存在相對優勢,包含資料處理及分析上。欄E則是把所有複選題的選項鍵入在同一欄位中,為了能夠分析,本文章來教學如何拆解,以下將提供兩種資料處理方式,最後說明分析方式。
- Jan 24 Mon 2022 09:59
XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-3/3
這次的內容會針對如何在R語言執行XGBoost作介紹,主要會根據筆者參考資料中XGBoost R Tutorial的章節作介紹,XGBoost的全名是eXtreme Gradient Boosting,最早是在2014年由陳天奇開發,此種演算法在Kaggle的比賽中大殺四方,因此獲得了大量建模使用者的青睞。筆者之前有針對XGBoost的原理做比較深入的介紹,有興趣的讀者可以參考XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-1/3、XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-2/3的文章。
- Jan 10 Mon 2022 08:58
XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-2/3
梯度提升(Gradient Boosting)是一種boosting的演算法,最早的論文是「Greedy Function Approximation: A Gradient Boosting Machine」,目前已被引用約15,000次,此種演算法可以應用到很多模型上,但是最常見的是用到決策樹(Decision tree)上,也就是GBDT(Gradient Boosting Decision Tree)。
機器學習領域在做演算法的訓練目標通常是為了優化或最小化損失函數(loss Function),Gradient boosting的核心精神是迭代出多個(M個)弱的演算法,然後將M個弱模型的預測結果相加,後面的模型Fm+1(x)基於前面學習模型的Fm(x)的效果生成的,關係如下:
- Jan 03 Mon 2022 08:48
XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-1/3
機器學習中,有一個分支為集成式學習(ensemble learning),顧名思義,集成式學習不是指單一的演算法框架,是一種團體的合作演算法框架,既然一個演算法無法得到好的預測結果,那如果是把不同方法用來訓練,理論上,應該會得到更好的預測結果,集成式學習就是這樣的概念。集成式的做法包含了Bagging、Boosting、Stacking,預測的準不準基本上有兩個面向,”Bias”跟”Variance”,詳細的介紹可參考筆者之前寫過的文章(機器學習-Bias-Variance Tradeoff),所有的機器學習模式不外乎想降低”Bias”跟”Variance”來得到更好的預測結果,但Bias跟Variance從下圖來看就是一種取捨的過程,所以各種機器學習的優化糾是想在這兩個概念中取得最佳的平衡。