Ellenőrző faktorelemzés

A többváltozós statisztikában az ellenőrző faktorelemzés a faktoranalízis egy speciális formája.[1] Azt vizsgálja, hogy egy konstruktum (jelen esetben egy magyarázó változó, ami nem figyelhető meg közvetlenül) konzisztens-e azzal, amit a kutató gondol arról a konstruktumról vagy faktorról. Az ellenőrző faktorelemzés tehát azt vizsgálja, hogy az adatok illeszkednek-e a hipotetitikus modellre. Ez a hipotetikus modell elméleti vagy korábbi empirikus kutatáson alapulhat.[2] Az eljárást először Jöreskog[3] fejlesztette ki. Az ellenőrző faktorelemzésben a kutató először hipotéziseket alkot arról, hogy a milyen faktorok húzódnak meg az általa használt eszközök mögött (pl.: egy ötfaktoros személyiségskála vonásai) és ezen előzetes ismeretei alapján korlátozza a modellt. Ez alapján lehetséges, hogy konkrétan egy elméletből levezetett modell kerüljön tesztelésre az adatok függvényében, ellentétben a feltérképező faktorelemzéssel, ahol nem lehet ilyen megkötéseket alkalmazni. Például, ha az a feltételezés, hogy a kovarianciát két egymástól független faktor magyarázza, meghatározható, hogy a köztük lévő kovariancia mértéke mekkora legyen. Az illeszkedési mutatók alapján értékelhetőek és összehasonlíthatóak egyes modellek az illeszkedés tekintetében. Ha nem illeszkednek az adatra megfelelően a kutató által meghatározott korlátozások, az tükröződni fog a mutatókban.

Ellenőrző faktorelemzés és feltáró faktorelemzés szerkesztés

Mind a feltáró, mind az ellenőrző faktorelemzés arra használható, hogy a mért változók közötti közös variancia megérthető legyen, és mindezt egy faktorra vagy látens változóra lehessen visszavezetni. A hasonlóság ellenére konceptuálisan különbözik egymástól a két eljárás. A feltáró faktorelemzés célja egy adott mintán azonosítani a faktorokat és maximalizálni a magyarázott varianciát.[4] A kutatónak nem szükséges rendelkeznie specifikus hipotézisekkel azzal kapcsolatban, hogy hány faktor várható és milyen változók határozzák meg őket. Még ha léteznek is ezek a feltételezések, nem építhetőek bele az elemzés folyamatába, tehát az eredményeket sem befolyásolják. Ezzel szemben az ellenőrző faktorelemzés egy előzetes hipotézist vizsgál és erősen elméletvezérelt. A kutatónak az elemzés előtt meg kell határoznia a megfigyelt változók segítségével a faktorokat, valamint a látens és megfigyelt változók közötti kapcsolatrendszert[5] A feltáró faktorelemzésben az egyes faktortöltések szabadon változnak, míg az ellenőrző faktorelemzés lehetővé teszi, hogy egyes kapcsolatok súlya annak beállításával nulla legyen. Kutatásokban többször feltáró faktorelemzést használnak olyan helyzetben is, mikor az ellenőrző faktorelemzés lenne a jobb megoldás.[6] Vitatott, hogy az ellenőrző faktorelemzést mennyire lehet feltáró jelleggel használni.[7] Azonban félrevezető azt állítani, hogy az ellenőrző faktorelemzés minden szempontból csak „ellenőrző” lenne. Az elemzések ún. módosítási mutatókat (modification indices), is adnak amely a modell illeszkedésének javulásáról tájékoztatnak egyes korlátozások megváltoztatása esetén.[8] Továbbá a két eljárás nem zárja ki egymást. Például egy-egy rosszul illeszkedő ellenőrző modellt követően érdemes feltáró faktorelemzést is használni.[9]

Ellenőrző faktorelemzés és strukturális egyenletmodellezés szerkesztés

Ellenőrző faktorelemzést általában strukturális egyenlet modellező programokkal, mint a LISREL,[10] EQS,[11] AMOS,[12] vagy az Mplus,[13] szoktak végezni. Az ellenőrző faktorelemzés gyakran az első lépés, hogy egy megfelelő modell a strukturális egyenlet modellezés keretén belül meghatározásra kerüljön. A strukturális egyenlet modellezés (SEM) modellilleszkedés értelmezésének szabályai érvényesek az ellenőrző faktorelemzésben is. A különbség a SEM és a feltáró faktorelemzés között, hogy az utóbbiban a látens változók között nincsenek feltételezett egyirányú kapcsolatok. Más szavakkal, az ellenőrző faktorelemzésben nincsen feltételezett oksági kapcsolat a faktorok között, míg a SEM meghatározhat ilyen viszonyokat is. A SEM kontextusában az ellenőrző faktorelemzést gyakran „mérési modellnek”, míg a látens változók közötti egyirányú kapcsolatokkal rendelkező modellt „strukturális modellnek” nevezik.

A modell illeszkedés értékelése szerkesztés

Az ellenőrző faktorelemzésben több mutató határozza meg a modell illeszkedését.[4] Fontos, hogy az adatok és a modell jó illeszkedése nem jelenti azt, hogy az adott modell a jó modell. Egy jó modell illeszkedés csak azt jelenti, hogy a modell valószínű.[14] Más modellek is lehetnek valószínűek, miközben nem tudhatjuk, hogy melyik a jó modell. Az viszont igaz, hogy ha a modell nem valószínű, akkor az nem lehet a jó modell sem. Egy ellenőrző faktorelemzés eredményeinél fel kell tüntetni: a) a feltételezett modelleket, b) a változtatásokat, c) mely mért változók határozzák meg az egyes látens változókat/faktorokat, d) a látens változók/faktorok közötti kovariánciátkat, e) minden más vonatkozó információt, például, hogy milyen korlátozásokat alkalmaztak.[15] Bár csábító, nem elég csak a legjobb illeszkedési mutatókkal rendelkező modellről beszámolni. Változó álláspontok vannak arról, hogy mely illeszkedési mutatókra érdemes építeni, azonban a Khí-négyzet próba, az RMSEA, a CFI és az SRMR használata erősen ajánlott.[1]

Abszolút illeszkedési mutatók szerkesztés

Az abszolút illeszkedési mutatók mutatják, hogy a feltételezett modell mennyire illeszkedik az adatokra.[16] Ezek közé tartozik a Khí-négyzet próba, az RMSEA, a GFU, az AGFI, az RMR és az SRMR.[17]

Khí-négyzet próba szerkesztés

A Khí-négyzet próba mutatja a megfigyelt és feltételezett kovariancia mátrixok közti különbséget. A nullához közeli értékek jobb illeszkedést mutatnak, mivel kisebb a különbség az elvárt és megfigyelt kovariancia mátrixok között.[8] A Khí-négyzet próbák alkalmasak arra is, hogy közvetlenül összehasonlítsák a beágyazott modellek illeszkedését az adatokra. Hátránya, hogy kis elemszám esetén nagyon valószínű az elsőfajú hiba előfordulása (elfogadja a modellt, holott valójában nem szignifikáns). Nagy elemszám esetén a másodfajú hiba valószínűsége nő meg (tehát nem nehéz megfelelően illeszkedő modellt találni).[8] Emiatt több más mutató használata is erősen indokolt az illeszkedés vizsgálatára

Megközelítési négyzetes középérték hiba szerkesztés

A megközelítési négyzetes középérték hiba (Root mean square error of approxiamtion, RMSEA) az elemszámtól függetlenül hasonlítja össze a optimális paraméterekkel rendelkező hipotetikus modellt és a populáció kovarianca mátrixát.[17] Az RMSEA értéke 0 és 1 közé eshet, minél kisebb, annál jobb az illeszkedés. A 0,06 vagy az annál kisebb értékek elfogadható modellilleszkedést mutatnak.[18]

Reziduális négyzetes középérték és standardizált reziduális négyzetes középérték szerkesztés

A reziduális négyzetes középérték (root mean square residual, RMR) és standardizált reziduális négyzetes középérték (square root mean square residual, SRMR) a minta és a hipotetikus modell kovariancia mátrixa közötti eltérés négyzetgyöke.[17] Az RMR-t nehéz értelmezni, mivel értéke függ az adott skálák léptékétől. Az értelmezés akkor válik nehézzé, ha két kérdőív szerepel a modellben, az egyik 0-10-ig, a másik 1-3-ig terjedő skálával.[1] Az SRMR kiküszöböli ezt a nehézséget, értéke 0 és 1 közé tehető. 0,08 vagy az alatti érték esetén mutat megfelelő modellilleszkedést.

Illeszkedés jósága mutató és igazított illeszkedés jósága szerkesztés

Az illeszkedés jósága mutató (goodness of fit index, GFI) a hipotetikus modell és a megfigyelt kovariancia mátrix közötti illeszkedést méri. Mivel ez a számítás függ a látens változókhoz kapcsolódó változók számától, az igazított illeszkedés jósága mutatót (adjusted goodness of fit index, AGFI) is használják, ahol ez a tényező már nem játszik szerepet. A két mutató értéke 0 és 1 közé esik, és a 0,9-es érték mutat jó illeszkedést.[19]

Relatív illeszkedési mutatók szerkesztés

A relatív illeszkedési mutatók a hipotetikus modell khí-négyzet értéket hasonlítják össze egy null vagy baseline-modellel.[16] Ez a null-modell mindig tartalmaz egy olyan modellt, ahol a változók nem korrelálnak egymással, tehát nagy a khí-négyzet értéke (vagyis rossz az illeszkedése).[17] Ilyen mutatók a normálizált illeszkedési mutató és az összehasonlító illeszkedési mutató.

Normalizált illeszkedési mutató és nem-normalizált illeszkedési mutató szerkesztés

A normalizált illeszkedési mutató (normed fit index, NFI) a hipotetikus és a null modell khí-négyzet értéke közötti különbséget elemzi.[20] A mutató azonban rendkívül érzékeny az elemszámra.[21] A nem-normalizált illeszkedési mutató (non-normed fit index, NNFI) vagy Tucker-Lewis mutató (Tucker-Lewis Index, TLI) kiküszöböli a minta méretéből származó problémát, azonban néha hibásan nullánál kisebb vagy egynél nagyobb értéket mutat.[22] Mindkét mutató 0 és 1 közé esik, a 0,95-ös értéknél nagyobb mutat jó modellilleszkedést.[18]

Összehasonlító illeszkedési mutató szerkesztés

Az összehasonlító illeszkedési mutató (comparative fit index, CFI) az adatok és a hipotetikus modell közti különbséget elemzi úgy, hogy közben korrigálja a khí-négyzet próba elemszám-érzékenységét[8] és a normalizált illeszkedési mutatót.[22] A mutató értéke 0 és 1 közé eshet, minél nagyobb, annál jobb az illeszkedés. Általában a 0,90-es, vagy nagyobb érték indikálja a jó modellilleszkedést.[18]

Azonosítás és alulazonosítás szerkesztés

A modell paramétereinek megfelelő kiszámításához szükséges, hogy a megfelelően azonosítsuk a modellt. Ezért a nem ismert paraméterek (q) számának kevesebbnek kell lenne a mért változók egyedi varianciái és kovarianciái számánál; p(p+1)/2. Ez az egyenlet a „t-szabály”. Ha túl kevés az információ, amin alapulnak a paraméterszámítások, akkor a modell alulazonosított és a paraméterei nem lehetnek megfelelően kiszámítva.[23]

Fordítás szerkesztés

  • Ez a szócikk részben vagy egészben a Confirmatory factor analysis című angol Wikipédia-szócikk ezen változatának fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.

Források szerkesztés

  1. a b c Kline, R. B. (2010). Principles and practice of structural equation modeling (3rd ed.). New York, New York: Guilford Press.
  2. Preedy, V. R., & Watson, R. R. (2009) Handbook of Disease Burdens and Quality of Life Measures. New York: Springer.
  3. Jöreskog, K. G. (1969). A general approach to confirmatory maximum likelihood factor analysis. Psychometrika, 34(2), 183-202.
  4. a b Suhr, D. D. (2006) Exploratory or confirmatory factor analysis? Statistics and Data Analysis, 31, Hozzáférés ideje: April 20, 2012, from http://www2.sas.com/proceedings/sugi31/200-31.pdf
  5. Thompson, B. (2004). Exploratory and confirmatory factor analysis: Understanding concepts and applications. Washington, DC, US: American Psychological Association.
  6. Levine, T. R. (2005). Confirmatory factor analysis and scale validation in communication research. Communication Research Reports, 22(4), 335-338.
  7. Browne, M. W. (2001). An overview of analytic rotation in exploratory factor analysis. Multivariate Behavioral Research, 36, 111-150.
  8. a b c d Gatignon, H. (2010). Confirmatory Factor Analysis in Statistical analysis of management data. DOI: 10.1007/978-1-4419-1270-1_4
  9. Schmitt, T. A. (2011). Current methodological considerations in exploratory and confirmatory factor analysis. Journal of Psychoeducational Assessment, 29(4), 304-321.
  10. CFA with Lisrel. [2009. május 28-i dátummal az eredetiből archiválva]. (Hozzáférés: 2009. április 12.)
  11. Byrne, B. M. (2006). Structural equation modeling with EQS: Basic concepts, application, and programming. New Jersey: Lawrence Elbaum Associates.
  12. CFA using AMOS
  13. Az Mplus oldala
  14. Schermelleh-Engel, K.,Moosbrugger, H., & Müller, H. (2003). Evaluating the fit of structural equation models: Tests of significance and descriptive goodness-of-fit measures, Methods of Psychological Research Online, 8(2), 23-74
  15. Jackson, D. L., Gillaspy, J. A., & Purc-Stephenson, R. (2009). Reporting practices in confirmatory factor analysis: An overview and some recommendations. Psychological Methods, 14(1), 6-23.
  16. a b McDonald, R. P., & Ho, M. H. R. (2002). Principles and practice in reporting statistical equation analyses. Psychological Methods, 7(1), 64-82
  17. a b c d Hooper, D., Coughlan, J., & Mullen, M.R. (2008). Structural equation modelling: Guidelines for determining model fit. Journal of Business Research Methods, 6, 53–60
  18. a b c Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1-55.
  19. Baumgartner, H., & Hombur, C. (1996). Applications of structural equation modeling in marketing and consumer research: A review. International Journal of Research in Marketing, 13, 139-161.
  20. Bentler, P. M., & Bonnett, D. G. (1980). Significance tests and goodness of fit in the analysis of covariance structures. Psychological Bulletin, 88, 588-606.
  21. Bearden, W. O., Sharma, S., & Teel, J. E. (1982). Sample size effects on chi square and other statistics used in evaluating causal models. Journal of Marketing Research, 19, 425-430.
  22. a b Bentler, P. M. (1990). Comparative fit indexes in structural models. Psychological Bulletin, 107(2), 238-46.
  23. Babyak, M. A., & Green, S. B. (2010). Confirmatory factor analysis: An introduction for psychosomatic medicine researchers. Psychosomatic Medicine, 72, 587-597.

További információk szerkesztés

  • Brown, T. A. (2006). Confirmatory factor analysis for applied research. New York: Guilford.
  • DiStefano, C., & Hess, B. (2005). Using confirmatory factor analysis for construct validation: An empirical review. Journal of Psychoeducational Assessment, 23, 225-241.
  • Harrington, D. (2009). Confirmatory factor analysis. New York: Oxford University Press.
  • Maruyama, G. M. (1998). Basics of structural equation modeling. Thousand Oaks, CA: Sage.

Kapcsolódó szócikkek szerkesztés