公告版位
晨晰統計顧問有限公司在新北市板橋\服務市話:02-29602817\手機:0918-276-622\信箱:raising.statistic@gmail.com\網址:http://www.rai-stat.com.tw

六、如何決定軌跡的形狀與數量(Andruff’s tutorial

2009 年時,Heather Andruff 發表了一篇非常清楚的 GBTM 教學文章,裡頭也是使用 Bobby Jones 撰寫的 SAS procedure 進行示範3。在該文章中,Andruff 提出了他們的實務經驗操作流程,主要有兩個重點。第一,應該要剔除模式中不顯著的二次方項或三次方項,一次方項(線性效果)則無論顯著與否都應該保留;第二,每一個軌跡組別最好要有至少包括 5% 的人數。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

                     在臨床研究中常見重複測量的資料,或稱為縱貫資料(longitudinal data),而用來分析縱貫資料的分析方法有許多種,當代主流的分析方法有(1)混合模式(Mixed model)或稱為隨機效果模型(Random effect model/多層次模型(Multilevel model)以及(2)廣義估計方程式(Generalized estimating equation; GEE),此兩種分析方法在過去晨晰統計部落格已有許多介紹,有興趣的讀者可以搜尋相關文章。

一、使用 GBTM 的時機

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

想上POWER BI課程嗎??

報名網址:https://www.rai-stat.com.tw/#row2

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

每當評估一個新的案件,當然是直接翻到第三章的研究方法,除了看看研究架構與假設之外,還要看一下使用的統計方法,關於護理領域的研究,根據多年的經驗,主要的設計有兩種,一種是實驗研究,近期最多人使用的,就是利用廣義估計方程(Generalized estimating equation, GEE)探討介入的效果,另一種是關聯性研究,瞭解變項之間的關係,統計方法不外乎就是卡方、獨立tANOVA,最後再迴歸分析為主軸作為收尾,固定的統計方法卻能讓論文一直不斷被產出,除了因為樣本的多樣性與特殊性之外,另一個極大的優勢,就是有非常多已經發展具有信效度的研究量表,這將為護理研究人員省下許多的時間與精力。

如果您對於上述的統計方法都做到膩了,不如嘗試比較進階一點的結構方程模式(structural equation modeling, SEM),這裡講的是較進階,並不是較新,畢竟結構方程SEM算是比較有資歷的統計方法了,您或許會有疑問,為什麼沒聽過,這也是我的疑問,因為我也很少遇到護理研究有使用,所以推薦給你們,另外搭配軟體AMOS,您一定會很意外,這好像也沒有很困難。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

複選題分析

36)開始進入分析,利用SPSS讀取已整理好的複選題資料

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

資料處理方法二

不同於上一種方法,此種方式是透過函數來判斷,雖然比較困難,但如果能熟悉此作法,就算選項不多,一樣好用。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

複選題的設計,常出現問卷設計中,收集受訪者同時出現兩個以上的答案,在資料的鍵檔上,將每個選項分開,是比較好分析的格式設計,但資料輸入時,有些研究為了提高輸入效率,選擇把複選題的答案輸入在同一欄位,並用指定符號隔開選答,以下圖為例,是在收集個案的慢性病情形,以三種慢性病為例(欄B至欄D),若個案有該慢性病,以輸入數值1來表示,反之則輸入0,雖然1/0的輸入方式並非絕對,但為了日後使用方便,1/0的輸入方式還是存在相對優勢,包含資料處理及分析上。欄E則是把所有複選題的選項鍵入在同一欄位中,為了能夠分析,本文章來教學如何拆解,以下將提供兩種資料處理方式,最後說明分析方式。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

這次的內容會針對如何在R語言執行XGBoost作介紹,主要會根據筆者參考資料中XGBoost R Tutorial的章節作介紹,XGBoost的全名是eXtreme Gradient Boosting,最早是在2014年由陳天奇開發,此種演算法在Kaggle的比賽中大殺四方,因此獲得了大量建模使用者的青睞。筆者之前有針對XGBoost的原理做比較深入的介紹,有興趣的讀者可以參考XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-1/3XGBoost演算法-eXtreme Gradient Boosting(極限梯度提升)-2/3的文章。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

梯度提升(Gradient Boosting)是一種boosting的演算法,最早的論文是「Greedy Function Approximation: A Gradient Boosting Machine」,目前已被引用約15,000次,此種演算法可以應用到很多模型上,但是最常見的是用到決策樹(Decision tree)上,也就是GBDT(Gradient Boosting Decision Tree)

機器學習領域在做演算法的訓練目標通常是為了優化或最小化損失函數(loss Function)Gradient boosting的核心精神是迭代出多個(M個)弱的演算法,然後將M個弱模型的預測結果相加,後面的模型Fm+1(x)基於前面學習模型的Fm(x)的效果生成的,關係如下:

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

機器學習中,有一個分支為集成式學習(ensemble learning),顧名思義,集成式學習不是指單一的演算法框架,是一種團體的合作演算法框架,既然一個演算法無法得到好的預測結果,那如果是把不同方法用來訓練,理論上,應該會得到更好的預測結果,集成式學習就是這樣的概念。集成式的做法包含了BaggingBoostingStacking,預測的準不準基本上有兩個面向,”Bias””Variance”,詳細的介紹可參考筆者之前寫過的文章(機器學習-Bias-Variance Tradeoff),所有的機器學習模式不外乎想降低”Bias””Variance”來得到更好的預測結果,但BiasVariance從下圖來看就是一種取捨的過程,所以各種機器學習的優化糾是想在這兩個概念中取得最佳的平衡。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

Close

您尚未登入,將以訪客身份留言。亦可以上方服務帳號登入留言

請輸入暱稱 ( 最多顯示 6 個中文字元 )

請輸入標題 ( 最多顯示 9 個中文字元 )

請輸入內容 ( 最多 140 個中文字元 )

reload

請輸入左方認證碼:

看不懂,換張圖

請輸入驗證碼