我正在使用SPSS做几次线性回归,每次都应用不同的过滤器,以便比较不同的组。对于许多过滤器,我只用13个观察值来拟合回归,但有15或24个解释变量。在这些情况下,SPSS会给我一个有12个betas的模型,并排除其余的变量(我认为这是我主要理解的)。
谁能告诉我SPSS如何选择要排除的变量,以及这些变量对依赖项的影响(即betas是什么)?我最初认为我应该将这些变量视为零betas,但现在不确定了。
提前感谢您的帮助!
请不要评论,只告诉我在13个观察值上拟合回归是愚蠢的。如果你有一些有用的见解,需要你首先指出13个观察值的回归不太理想,我很乐意听你说完。
发布于 2016-09-17 13:13:30
当模型完全可以拟合时,你不太可能在这么多变量和这么少观察的情况下得到有用的结果。看看系数的标准误差。使用偏最小二乘(PLS)这样的技术可能会更好,它可以容纳比案例更多的变量。通过扩展命令(分析>回归>偏最小二乘)可以使用统计中的PLS,但是,除了通常随Statistics一起安装的Python Essentials之外,它还需要安装一些额外的库。如果您想继续执行此操作,请参阅它的安装说明。
至于使用回归将省略哪些变量,选择是完全任意的,因为,除非完全共线性,否则如果有N种情况,任何N个变量(包括常量项)都会给出一个完美的拟合。
https://stackoverflow.com/questions/39529250
复制