公告版位
晨晰統計顧問有限公司在新北市板橋\服務市話:02-29602817\手機:0918-276-622\信箱:raising.statistic@gmail.com\網址:http://www.rai-stat.com.tw

1.資料來源:

筆者使用一個肺癌病人的資料,此資料總共47筆,主要的outcomePCR的陽性與否(Yes=陽性;No=陰性),這個資料蒐集了MRI測量的各種數據,筆者後面的示範主要會用腫瘤的大小(Tumor size)來做分析,腫瘤的大小(Tumor size)在資料當中有分幾個時間點的測量(R0, R1, R2),除此之外,筆者再去計算不同時間點腫瘤大小(Tumor size)的差異,因此還可以得到額外的三個欄位(特徵),筆者想根據這六個特徵去跟outcomeROC的分析,想藉此了解哪一個特徵比較可以用來區別PCR的結果。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

甚麼是K-nearest Neighbors Algorithm (KNN)分析呢,白話來說,就是物以類聚的概念。假設你的朋友十個有八個成績都很好,合理來說近朱者赤,你成績好的機會應該蠻大的, KNN除了可以用於解決分類的問題(離散型資料),也適用於解決回歸的問題(連續型資料),用途相當的廣泛。為了要在R上面執行K-nearest Neighbors Algorithm (KNN)的分析,首先必須先安裝並載入以下的package

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

13)從「受試者間效應項的檢定」中,下方註解處顯示模式的R平方及調整後R平方,對應右邊用線性迴歸分析的結果,有相同的模式摘要。

14)「校正後的模式」的F值與顯著性,對應右邊用線性迴歸分析的結果,可以得到迴歸模式的整體檢定結果,F值同樣是3.523。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

在多數的關聯性研究中,都是以迴歸分析作為最終的統計方法,因此在進行樣本數規劃時,迴歸分析也是最常被拿來計算的設定選項,當研究有先收個3050筆來做個小型先趨pilot研究時,研究者通常會以自己資料來去進行迴歸效果量的計算,並回推所需樣本數,總比又再度使用中度效果量來得嚴謹。

假如收案過程中,不斷地重覆分析迴歸時,可能會遇到一件惱人的問題,就是自變項中有類別變項,做幾次迴歸分析,就得做幾次的虛擬變項編碼,而且只要類別變項一多,就會越做越無力。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

上篇文章中筆者示範了雙變量模型(Bivariate model),這篇文章我們進一步示範階層模型(Hierarchical model)的 SAS 操作。如以下SAS語法所示,唯一差別只有在第四列的「method=h」,h 即代表 hierarchical

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

筆者於 2020/5 時介紹了診斷型統合分析的介紹,包括基本概念與傳統方法(https://reurl.cc/4a3Lxv);兩種主流方法(https://reurl.cc/Q96YQ2),包括雙變量模型(Bivariate model)以及階層模型(Hierarchical model);以及 R 套件的介紹與比較(https://reurl.cc/NrZYv6)。本系列文章旨在示範實際實作的步驟,示範的軟體為 SAS 的巨集「MetaDAS」,此巨集可於 Cochrane Methods 下載(https://methods.cochrane.org/sdt/software-meta-analysis-dta-studies),並有完整的使用手冊及範例。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

一、分析資料

變項:

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

下圖是計算出來的結果,分別得到了總和、平均、相加

4採用函數加總時最大的問題是不能有遺漏值,否則計算出來的得分會有偏差問題,以6號受訪者來說,五個題項的回答皆為滿意(4分),總分得到20分,7號受訪者前四題皆回答非常滿意(5分),但由於第五題遺漏,被當成0分來計算,使得這兩名受訪者算出來的滿意程度相等,這樣似乎就不合理了,所以有遺漏值的資料就得特別注意;另外還存在一個問題,若今天研究者想要進行構面之間的分數比較或排序時,以加總分數比較就會出現一個明顯的問題,題數越多分數通常會越高,因此當構面的題數不相同時,就無法在同一個基礎點上做比較。為了解決這兩項問題,個人最推薦採用函數平均進行計算

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

    這篇文章想要探討一個容易受到老師挑戰的議題,在問卷調查的研究中,若有使用量表工具來收集受訪者的心理特質時,勢必需要針對每位受訪者的回答項目,幫他們計算一個分數來代表個別的反應程度,那麼計分規則是什麼,通常會在介紹研究工具時一併交代,如下圖所示。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

<源起>

LDA最早是1936年由RA. Fisher(現代統計學之父)發展,可用於解決二元分類的問題,之後也拓展成解決多分類的問題。在機器學習的領域,LDA可做為資料降維的工具,至於為什麼要降維,可參考筆者之前寫過的文章(https://reurl.cc/7y1zON),裡面有完整的介紹,降維的目的主要是為了避免機器學習的模型的分類或迴歸能力會開始隨維度的增加而下降(如圖一所示)

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

Close

您尚未登入,將以訪客身份留言。亦可以上方服務帳號登入留言

請輸入暱稱 ( 最多顯示 6 個中文字元 )

請輸入標題 ( 最多顯示 9 個中文字元 )

請輸入內容 ( 最多 140 個中文字元 )

reload

請輸入左方認證碼:

看不懂,換張圖

請輸入驗證碼