Warum SEM?

Diagnostik
AdventskalendR
Autor:in

Gerrit Hirschfeld

Veröffentlichungsdatum

1. Dezember 2024

Warum machen alle nur noch SEM

Ein Vorteil, der oft genannt wird, warum immer mehr Studien auf SEM (structural equation modelling; aka Strukturgleichungsmodelle setzen) ist, dass diese Modelle es erlauben, die Messungenauigkeiten zu berücksichtigen. Was bedeutet das in der Praxis?

Eine Analyse ohne SEM

Die Standard-Analysevariante besteht darin, dass man erst für jede Skala einen Mittelwert berechnet und diese dann miteinander korreliert.

library(lavaan)
Warning: package 'lavaan' was built under R version 4.3.3
This is lavaan 0.6-18
lavaan is FREE software! Please report any bugs.
data(HolzingerSwineford1939)

visual = (HolzingerSwineford1939$x1 + HolzingerSwineford1939$x2 + HolzingerSwineford1939$x3) / 3
textual = (HolzingerSwineford1939$x4 + HolzingerSwineford1939$x5 + HolzingerSwineford1939$x6) / 3
speed = (HolzingerSwineford1939$x7 + HolzingerSwineford1939$x8 + HolzingerSwineford1939$x9) / 3

cor(cbind(visual, textual, speed))
           visual   textual     speed
visual  1.0000000 0.3136256 0.2714284
textual 0.3136256 1.0000000 0.2247463
speed   0.2714284 0.2247463 1.0000000

Analoge Ergebnisse mit SEM

Bei der SEM-basierten Analyse erstellt man einfach ein Modell, dass einerseits spezifiziert welches Item auf welchem Faktor läd’ und zweitens, wie die Faktoren miteinander zusammenhängen.

model <- ' 
  visual =~ x1 + x2 + x3
  textual =~ x4 + x5 + x6
  speed =~ x7 + x8 + x9 '

mod1 <- cfa(model, data=HolzingerSwineford1939)
summary(mod1, standardized=T)
lavaan 0.6-18 ended normally after 35 iterations

  Estimator                                         ML
  Optimization method                           NLMINB
  Number of model parameters                        21

  Number of observations                           301

Model Test User Model:
                                                      
  Test statistic                                85.306
  Degrees of freedom                                24
  P-value (Chi-square)                           0.000

Parameter Estimates:

  Standard errors                             Standard
  Information                                 Expected
  Information saturated (h1) model          Structured

Latent Variables:
                   Estimate  Std.Err  z-value  P(>|z|)   Std.lv  Std.all
  visual =~                                                             
    x1                1.000                               0.900    0.772
    x2                0.554    0.100    5.554    0.000    0.498    0.424
    x3                0.729    0.109    6.685    0.000    0.656    0.581
  textual =~                                                            
    x4                1.000                               0.990    0.852
    x5                1.113    0.065   17.014    0.000    1.102    0.855
    x6                0.926    0.055   16.703    0.000    0.917    0.838
  speed =~                                                              
    x7                1.000                               0.619    0.570
    x8                1.180    0.165    7.152    0.000    0.731    0.723
    x9                1.082    0.151    7.155    0.000    0.670    0.665

Covariances:
                   Estimate  Std.Err  z-value  P(>|z|)   Std.lv  Std.all
  visual ~~                                                             
    textual           0.408    0.074    5.552    0.000    0.459    0.459
    speed             0.262    0.056    4.660    0.000    0.471    0.471
  textual ~~                                                            
    speed             0.173    0.049    3.518    0.000    0.283    0.283

Variances:
                   Estimate  Std.Err  z-value  P(>|z|)   Std.lv  Std.all
   .x1                0.549    0.114    4.833    0.000    0.549    0.404
   .x2                1.134    0.102   11.146    0.000    1.134    0.821
   .x3                0.844    0.091    9.317    0.000    0.844    0.662
   .x4                0.371    0.048    7.779    0.000    0.371    0.275
   .x5                0.446    0.058    7.642    0.000    0.446    0.269
   .x6                0.356    0.043    8.277    0.000    0.356    0.298
   .x7                0.799    0.081    9.823    0.000    0.799    0.676
   .x8                0.488    0.074    6.573    0.000    0.488    0.477
   .x9                0.566    0.071    8.003    0.000    0.566    0.558
    visual            0.809    0.145    5.564    0.000    1.000    1.000
    textual           0.979    0.112    8.737    0.000    1.000    1.000
    speed             0.384    0.086    4.451    0.000    1.000    1.000

Fazit

Spannend ist, dass die standardisierten Kovarianzen (aka Korrelationen) der Faktoren deutlich größer sind, als die Korrelationen. In der Praxis hat man dadurch bei gleicher Sample-size eine höhere Power, oder umgekehrt braucht man weniger Probanden um denselben Effekt mit gleicher Power nachzuweisen.