2016-09-16 4 views
0

Ich benutze SPSS, um mehrere lineare Regressionen zu machen und jedes Mal verschiedene Filter anzuwenden, um verschiedene Gruppen zu vergleichen. Für eine Reihe von Filtern passe ich Regressionen mit nur 13 Beobachtungen, aber 15 oder 24 erklärenden Variablen an. In diesen Fällen wird SPSS mir ein Modell mit 12 Betas geben und die restlichen Variablen ausschließen (das verstehe ich meistens, denke ich).Mit mehr erklärenden Variablen als Beobachtungen in LR, wie sperrt SPSS Variablen

Kann mir jemand sagen, wie SPSS die Variablen auswählt, die ausgeschlossen werden sollen, und was das über die Auswirkungen dieser Variablen auf die Abhängigen sagt (d. H. Was sind die Betas dann)? Ich dachte ursprünglich, ich sollte diese Variablen als Null Betas behandeln, bin mir aber nicht mehr sicher.

Vielen Dank im Voraus für Ihre Hilfe!

Bitte, keine Kommentare, die mir nur sagen, dass es dumm ist Regression auf 13 Beobachtungen anzupassen. Wenn Sie einige nützliche Einsichten haben, die Sie darauf hinweisen müssen, dass die Regression mit 13 Beobachtungen weniger als ideal ist, freue ich mich, Sie zu hören.

Antwort

0

Es ist sehr unwahrscheinlich, dass Sie nützliche Ergebnisse mit so vielen Variablen und so wenigen Beobachtungen erhalten, wenn das Modell überhaupt angepasst werden kann. Sehen Sie sich die Koeffizientenstandardfehler an. Sie könnten besser mit einer Technik wie Partial Least Squares (PLS) arbeiten, die mehr Variablen als Fälle aufnehmen kann. PLS in Statistics ist als Erweiterungsbefehl verfügbar (Analyse> Regression> Teilweise kleinste Quadrate), erfordert jedoch die Installation einiger zusätzlicher Bibliotheken, die über Python Essentials hinausgehen und normalerweise mit Statistics installiert werden. Sehen Sie die Installationsanleitung damit, wenn Sie dies verfolgen wollen.

Für welche Variablen würde die Regression ausgelassen werden, ist die Wahl völlig willkürlich, da alle N Variablen (einschließlich des konstanten Terms) eine perfekte Anpassung ergeben, wenn N Fälle vorliegen.

+0

Danke JKP. Ich stimme dem voll und ganz zu, bin aber leider gezwungen, meine Arbeit an das anzupassen, was seit über sieben Jahren in meiner Firma getan wurde. Ich danke Ihnen auch für den Vorschlag von PLS, ich werde mich definitiv darum kümmern, so gut ich kann. Zum Schluss, danke für den letzten Absatz, es ist genau das was ich gesucht habe. Ist der Grund für diese perfekte Passform sehr kompliziert zu verstehen oder kennen Sie irgendwelche Quellen, die es auf einigen Seiten erklären könnten? –

+0

Nun, es folgt aus der grundlegenden linearen Algebra und den normalen Gleichungen für die Regression, aber vielleicht wäre eine empirische Demonstration für Ihr Publikum überzeugender. Generiere 3 zufällige Variablen, aber nur zwei Fälle. Dann regressiere irgendeinen auf den anderen. Sie sehen eine perfekte Anpassung mit nur einer Variablen und einem konstanten Ausdruck, obwohl die Variablen nichts miteinander zu tun haben. Sobald die Residuen Null sind, können keine zusätzlichen erklärenden Variablen die Anpassung verbessern. – JKP

Verwandte Themen