公告版位
晨晰統計顧問有限公司在板橋~~服務市話:02-29602817 手機:0918-276-622 聯絡信箱:raising.statistic@gmail.com。 網址:http://www.rai-stat.com.tw。 歡迎大家踴躍發問,問問題請用facebook問(http://tinyurl.com/raising100)會快速回覆喔,我們每週才會統一回一次部落格上的問題。

目前分類:迴歸與SEM (48)

瀏覽方式: 標題列表 簡短摘要

因素分析是在做量表型研究時,最常用來進行效度分析的統計方法,而因素分析又分為探索性因素分析(Exploratory Factor Analysis, EFA)與驗證性因素分析(Confirmatory Factor Analysis, CFA),因此有兩個常被問到的問題,兩者的差別在哪,以及兩者的使用時機為何,兩者的差異在張偉豪與鄭時宜(2012)一書中有清楚的介紹與彙整,因此本篇也截錄一些重點與大家方享。

探索性因素分析被提出的時間早於驗證性因素分析,主要的目的是在探索一組觀察變項中有多少的潛在因素,其流程是先設定一群觀察變項會受到同一個共同因素的影響,計算其共變程度,再來排除掉共變程度後,再尋找下一個可以解釋剩下共變關係的因素,直到所有變異量被解釋完為止(如下圖左半部),此時所萃取因素的個數剛好就是等於觀察變項的總題數,不過由於多數因素能解釋共變的程度不高,因此就會有許多方式來決定因素個數,譬如說下圖右半部採取特徵值大於一的方式來決定,或是用陡坡圖來決定適合的因素個數。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

本篇文章將介紹針對結構方程常用的配適度指標作介紹,除了整理各指標的判斷標準及參考文獻之外,亦針對一些特殊的情況進行說明。

九、比較性配適指標(Comparative fit index, CFI

CFI類似於NFI,但對樣本數有加以懲罰,因此CFIRMSEA一樣較不受到樣本數大小的影響(Fan, Thompson, & Wang, 1999),即使在小樣本之下,CFI對模式配適度的估計表現仍相當好(Bentler, 1995)。CFI介於0~1之間,CFI指數越接近1代表模型契合度越理想,表示能夠有效改善中央性的程度。傳統上認為CFI0.9以上為良好配適(李茂能,2006;陳正昌、程炳林、陳新豐與劉子鍵,2003;張偉豪,2011)。而有學者認為要以大於.95為通過門檻,用來評估模式適配度才夠穩定(Bentler, 1995; Hu & Bentler, 1999; 邱皓政,2011),但1不代表是完美配適,只代表模型卡方值小於假設模型的自由度。CFI在巢型結構中也是個常用的指標,巢型結構模型中CFI差異的大小決定模型是否不同(Cheung & Rensvold, 2002)。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

本篇文章將介紹針對結構方程常用的配適度指標作介紹,除了整理各指標的判斷標準及參考文獻之外,亦針對一些特殊的情況進行說明。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

本篇文章將介紹針對結構方程常用的配適度指標作介紹,除了整理各指標的判斷標準及參考文獻之外,亦針對一些特殊的情況進行說明。

一、卡方檢定(Chi square test

卡方值是SEM最原始的指標,因為它直接從ML估計法的函數【(N-1FML】計算而得。卡方值是愈小愈好,但也沒有一定的標準,因為卡方值不但會受到樣本數的影響,也會受到模型複雜度的影響,幾乎所有的模式都可能被拒絕(Bnetler & Bonett, 1980; Marsh & Hocevar, 1985; Marsh, Balla, & McDonald., 1988),算不上是實用的指標,因此顯少採用,但它是許多配適度指標的計算基礎,所以在SEM分析中需要呈現。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

(二)Points system

如上所述,nomogram不適用於解釋變項太多的情況(例如>10),當我們的多變項分析同時包括10個甚至15個變項時,此時則可以考慮以points system來呈現多變項模式的結果。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

多變項迴歸分析(Multivariable or multi-predictor regression analysis)指的是迴歸方程式中,同時有2個或2個以上的解釋變項,反應變項(Response variable, Y)則可能是各種尺度的變項,常見的有線性(連續變項)、二元、計數與存活資料等,分別適用線性迴歸(Linear regression)、羅吉斯迴歸(Logistic regression)、卜瓦松迴歸(Poisson regression)及Cox比例危險模型(Cox proportional hazard model)等。

呈現多變項分析結果最常見的方式就是列表,列出迴歸係數、勝算比或危險比的值、信賴區間以及顯著性,如下表所示。方程式除了列解釋變項的迴歸係數(或勝算比、危險比)之外,也列出截距項(Intercept or constant)的數值,以利讀者可以帶入特定值,以計算出預測的結果變項的數值,例如50歲男性且Creatinine0.8,此人的預測Y值是多少。預測Y值在線性迴歸跟卜瓦松迴歸代表的是平均值,在羅吉斯迴歸與Cox模型則是代表發生事件的機率。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

二、報表

1)模式資訊

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

      多元中介,顧名思義是模式之中包含兩個以上的中介變項(mediator variable),而多元中介又分「平行式(parallel)中介」與「串聯式(serial)中介」(又稱遠程中介)。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

迴歸分析是蠻常採用的統計方法之一,而在進行迴歸分析之前,針對殘差的部分存在幾項基本的假設,當資料違反這些基本假設而進行分析時,通常會使研究結果產生偏誤,至於偏誤的程度,當然就視資料違反的程度而定,其假設包含:

1)常態性

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

進行迴歸分析時,類別變項需轉為虛擬變項(Dummy Variable)的處理,常會讓使用者覺得很麻煩,尤其當研究裡的類別變項較多時,處理起來真的需要比較多的時間。此時,我們可以利用SPSS所分享的公用程式,透過軟體來處理,說明中有提到,此公用程式可適用在SPSS 17.0之後的版本,且有安裝Python Essentials,本篇以SPSS 22.0版為操作介面,介紹安裝此公用程式及後續的操作。

在分析之前,先確認所有要做虛擬編碼(Dummy Code)的變項已做數值的標註,增加資料的可讀性。

晨晰部落格新站 發表在 痞客邦 留言(1) 人氣()

二、報表

1)初步分析

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

一、操作

1)先利用SPSS進行相關分析

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

『http://dasanlin888.pixnet.net/blog/post/34469324』-之前部落格文章中有介紹迴歸係數跟預期方向相反的相關議題,我們定義為可能是多元共線性所造成的,對於研究者來說勢必相當困擾,畢竟此結果無法使用。

因此進行迴歸分析時,當遭遇以下幾種情況時,可能要注意迴歸模式中是否存在多元共線性(multi-collinearity)的問題:(1)共線性指標超過標準(含容忍度tolerance、變異膨脹因子VIF、條件指標CI)(2)迴歸係數的方向性與相關係數相反(3)解釋力R平方過高,但個別變項的係數未達顯著水準。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

這次想和大家重新檢討一些統計方法的問題。一般人作差異分析,通常都會說比較二組的分數差異用T檢定,比較三組則用單因子變異數分析(one way ANOVA)。每一種方法有不同的使用時機。

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

這篇將介紹一個資料處理方法Mean Center」,又稱置中平減或中心化,大部分出現在統計模式中含有交互作用(interaction)項時,必須處理的過程,這是因為在統計模式中,若同時出現主效果(main effects)「A&B」及交互作用效果(interaction effects)「A*B」時,容易使模式產生「多元共線性」(multicollinearity)的問題,而Mean Center」可以降低模式多元共線性的程度,幫助交互作用項迴歸係數的解釋。

一般Mean Center」的作法,是利用描述性統計分析將變項的平均數求出,接著利用轉換裡的計算(Compute),將各自變項減掉各自平均數後創造出新的變項;不過有時研究可能要針對120個變項進行此動作,將會花費不少時間,因此本篇將介紹SPSS分享的新工具,輕鬆完成Mean Center」,此公用程式可適用在SPSS 17.0之後的版本,且有安裝Python Essentials,本篇以SPSS 22.0版為操作介面,介紹安裝此公用程式及後續的操作。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

9)點選「選項」因為羅吉斯結果的呈現相當注重OR值,因此到這邊設定讓結果show出。

10)按下「Exp(B)之信賴區間(X):95%」,95%即為預設,不需變更。

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

呈上篇對於二元羅吉斯結果做簡單的介紹之後,本篇將針對SPSS操作進行教學,先以下表介紹範例資料的變項

 

晨晰部落格新站 發表在 痞客邦 留言(0) 人氣()

再來,是依變項的部分,我們知道每個受訪者會發生運動傷害的機率與不會發生運動傷害的機率相加,一定是100%P(會發生)+P(不會發生)=1),在羅吉斯迴歸的方程式中,公式以P(會發生)/P(不會發生)做為一個人會不會發生依變項=1(有運動傷害)的風險(又稱勝算,odds),如果今天一個人會發生的機率是50%的話,不會發生的機率也一定是50%,此時所算出來的風險(odds)就會剛好是1如果今天算出來的風險odds)超過1的話,就代表該受訪者比較可能有依變項=1(有運動傷害)的現象反之odds)低於1的話,就代表該受訪者比較不可能有依變項=1(有運動傷害)的現象所以1即為決定方向性的重要標準。再繼續延伸到下表裡的OR值(odds ratio),OR值可以想成把兩群對象的風險(odds)進行比較,如果有一群對象A的風險(odds)為0.6,另一群對象B的風險為0.3,那對象A相較於對象BOR值則為2AB容易發生),或解釋成對象B相較於對象AOR值則為0.5BA不容易發生)因此仍以1作為OR值判斷的標準OR值超過1,越容易發生Outcome=1(有運動傷害),或可以解釋發生風險比較高

如果上述的教學您還可以接受的話,那麼恭喜您,應該對羅吉斯的迴歸解釋有相當瞭解,若您對於上述不是很明白,也不用擔心,最後要教您最快解釋報表的方法同樣的以自變項及依變項拆成兩段解釋

晨晰部落格新站 發表在 痞客邦 留言(2) 人氣()

一篇研究在經過多種量化分析的統計方法後,經常以找尋預測因子或影響因子作為Ending,所使用的統計方法即是大家常看到的迴歸分析,一般所指的迴歸分析若沒有特別強調,通常都是線性迴歸(Linear Regression),而且是多個自變項所組成的多元線性迴歸(Multiple Linear Regression),不過根據我的經驗,多數客戶學線性迴歸並沒有太大的問題,就算拿書自學也都能輕易上手;而這篇所要介紹的是從統計方法聽起來就比較難的二元羅吉斯迴歸。

二元羅吉斯迴歸與線性迴歸的差別,僅在於依變項/Outcome尺度的不同,當依變項為二類的類別變項(通常Coding 1 & 0)時,會採用二元羅吉斯迴歸進行分析;而當依變項為連續尺度的變項時,則是使用線性迴歸。(當依變項的水準為三類以上,則採用多項式羅吉斯迴歸)。

晨晰部落格新站 發表在 痞客邦 留言(4) 人氣()

本篇將說明如何找到變項各自單獨的解釋力,不過是否符合老闆的需要,還是得視情況而定,本篇提供兩種找尋的方式,(1)仍是以R平方改變量找尋變項解釋力;(2)利用部分相關(part correlation)來計算(非偏/淨相關)。

在分享找尋變項各自單獨的解釋力之前,先利用下圖瞭解對依變項的解釋力包含哪一些,此處設定兩個自變項X1X2,依變項Y來做介紹。

晨晰部落格新站 發表在 痞客邦 留言(1) 人氣()

1 23

您尚未登入,將以訪客身份留言。亦可以上方服務帳號登入留言

請輸入暱稱 ( 最多顯示 6 個中文字元 )

請輸入標題 ( 最多顯示 9 個中文字元 )

請輸入內容 ( 最多 140 個中文字元 )

請輸入左方認證碼:

看不懂,換張圖

請輸入驗證碼