A、vector <int> :: iterator it;
B、iterator it;
C、vector:: iterator it;
D、vector <int> v1; v1:: iterator it;
A、vector <int> :: iterator it;
B、iterator it;
C、vector:: iterator it;
D、vector <int> v1; v1:: iterator it;
B.梯度下降的步长
C.是否给数据加干扰特征或者偏差特征
D.Lasso和ridge的正规化参数
在正文中给出的说明性工资生产率回归(12.5.1)中使用科克伦-奥克特两步法,并将结果与迭代法所得到的结果进行比较。特别注意在变换中对第一次观测的处理。
及AR(1)模式
于是科克伦和奥克特推荐如下步腺来估计ρ。
(1)用通常的OLS方法估计方程①并得到残差ut。顺便指出,你可以在模型中包含不止一个X变量。
(2)利用第1步得到的残差做如下回归:
这是方程②在实证中的对应表达式。
(3)利用方程③中得到的,估计广义差分方程(129.6)。
(4)由于事先不知道方程③中得到的是不是ρ的最佳估计值,所以把第3步中得到的值代入原回归①,并得到新的残差解为
(5)现在估计如下回归
它类似于方程③,并给出p的第二轮估计值。由于我们不知道p的第二轮估计值是不是真实p的最佳估计值,所以我们进入第三轮估计,如此等等。这正是科克伦-奧克特程序被称为迭代程序的原因。我们该把这种(愉快的)轮回操作进行到什么程度呢?一般的建议是,当p的两个相邻估计值相差很小(比如不是0.01或0.005)时,便可停止迭代。在工资-生产率一例中,在停止之前约需要3次迭代。
a.利用科克伦-奥克特迭代程序,估计工资生产率回归(12.5.2)的p.在得到ρ的“最终”估计值之前需要多少次迭代?
b.利用a中得到的p的最终估计值,在去掉第一次观测和保留第一次观测的情况下,估计工资生产率回归。结果有何差异?
c.你认为在变换数据以解决自相关问题时保留第一次观测重要吗?
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!