11 Упражнения на гетероскедастичость
11.1 Упражнение 0
Даны две случайные величины: u,x - случайные величины
(матрица)
E(u|x)=?
Посчитаем условные математические ожидания для каждой случайной величины:
E(u|x=2)=−1∗0.5+1∗0.5=0
E(u|x=3)=−1∗0.20.8+1∗0.60.8=0.5
Совместим их:
E(u|x)={0если x=20.5если x=3
Также можем представить это условное математическое ожидание в виде функции
E(u|x)=0.5(x−2)
Значение условной дисперсии Var(u|x):
Способ №1
Считаем отдельные дисперсии: Var(u|x=2) и Var(u|x=3). Совмещаем их, по аналогии с математическим ожиданием.
Способ №2
Var(u|x)=E(u2|x)−[E(u|x)]2
E(u2|x)=1
Var(u|x)=1−0.25(x−2)2
Так как x принимает всего два значения (x=2,x=3) условную дисперсию можно представить в виде системы:
Var(u|x)={1если x=20.75если x=3
или в качестве функции:
Var(u|x)=0.25x+1.5
Свойства условного математического ожидания:
E(f(x)|x)=f(x)
Var(f(x)|x)=0
E(f(x)y|x)=f(x)E(y|x)
E[E(y|x)]=E(y)
Var(y)=Var(E(y|x))+E(Var(y|x)) по теореме Пифагора
11.2 Упражнение 1
- Даны случайные величины X=(x1,x2,...,xn) и u=(u1,u2,...,un), где xi~N(10;9), при этом векторы (x1,u1);(x2,u2)...,(xn,un) независимы, то есть может существовать зависимость между xi,ui, однако нет зависимости между парами. *E(ui|xi)=0
plim(1nX′X)−1=?
plim(1nX′u)=?
plim(X′X)−1X′u=?
Решение:
- X′X=x21+x22+...+x2n=∑ni=1x2i
plim(1n∑ni=1x2i)−1=[E(x2i)]−1=(109)−1 (по закону больших чисел)
Напоминание:
lim(f(an))=f(lim(an))
ЗБЧ: Y1,Y2,...,Yn i.i.d., следовательно, ˉ(Yn)−>E(Y1)
E(x2i)=Var(xi)+(E(xi))2
- 1nX′u=1n∑ni=1xiu2i
По ЗБЧ plim(frac1n∑ni=1xiu2i)=E(xiui).
Исходя из свойств условного математического ожидания E[E(y|x)]=E(y) представим E(xiui) как E(E(xiui|xi)).
Так как xi известно, то по свойству E(f(x)y|x)=f(x)E(y|x) можем вынести известную случайную величину за знак математического ожидания: E(xiE(ui|xi))=0
Следовательно, plim(1nX′u)=0
- X′X и X′u случайные величины домножим X′X и X′u на 1n
plim(1nX′X)−11nX′u = plim(1nX′X)−1∗plim(1nX′u)=(109)−1∗0=0
Следовательно, plim(X′X)−1X′u=0
Напоминание:
- lim(anbn)=lim(an)lim(bn)
11.3 Стохастические регрессоры
Если:
y=Xβ+u
β - константы
В матрице Х: xi. - i-ая строка; векторы (xi.,yi) независимы и одинаково распределены. Наблюдения - это случайная выборка
E(ui|xi)=0
Гомоскедастичность E(u2i|xi)=Var(ui|xi)=σ2
P(столбцыXлинейнонезависимы)=1
ˆβ=(X′X)−1X′y
11.4 Теорема Гаусса Маркова для стохастических регрессоров
Несмещенность: E(ˆβ|X)=β
Var(ˆβ|X)=σ2(X′X)−1
ˆβ линейна по y
ˆβ эффективная и несмещенная оценка среди линейных по y
plim(ˆβ)=β
11.5 Упражнение 2
Нарушена предпосылка теоремы Гаусса Маркова об отсутствие гетероскедастичности: Var(ui|xi)=f(xi.)
Найти:
Какой вид имеет матрица Ω=Var(u|X)
E(ˆβ|X)=?
Var(ˆβ|X)=?
plim(ˆβ)=?
Решение:
- Ω=(f(x1.)cov(u1,u2|X)…cov(u1,un|X) ⋮⋮⋮⋮ cov(u1,un|X)……f(xn.))
Так как выборка случайна, то cov(ui,uj|X)=0, при i≠j
Ω=(f(x1.)0…0 ⋮⋮⋮⋮ 0……f(xn.))
E(ˆβ|X)=β
Var(ˆβ|X)=Var((X′X)−1X′y|X)=(X′X)−1X′×Var(y|X)×((X′X)−1X′)′=(X′X)−1X′×Var(y|X)×X(X′X)−1=(X′X)−1X′×Var(Xβ+u|X)×X(X′X)−1=(X′X)−1X′×Var(u|x)×X(X′X)−1=(X′X)−1X′×Ω×X(X′X)−1
В действительности возникает проблема при оценке матрицы Ω, так как она имеет размер n×n, то есть нам нужно оценить n чисел на диагонали по n наблюдениям, что является достаточно нетривиальной задачей. Оказывается, что нельзя получить состоятельную оценку матрицы Ω, но можно получить такую оценку этой матрицы, чтобы левая часть, то есть Var(ˆβ|X), была состоятельна.
Например, состоятельной оценкой бцдет следующая: ^VarHC(ˆβ|X)=(X′X)−1X′׈Ω×X(X′X)−1 где ˆΩ можно представить в виде:(White)
ˆΩHC0=(^u210…0 ⋮⋮⋮⋮ 0……^u2n)
- абревиатура НС - heteroscedasticity-consistent
При гетероскедастичности оценки несмещенные и состоятельные, но проблема будет заключаться в t-статистике, так как мы не знаем ее распределение, следовательно, нам необходимо использовать стандартные отклонения из устойчивой к гетерокедастичности матрицы, чтобы получить надежные оценки:
tHC=^βj−βjseHC(^βj) ~ N(0;1) где seHC(^βj) находятся из матрицы ^VarHC(ˆβ|X)
и теперь tHC~N(0;1) (асимтотически нормальное)
- plim(ˆβ)=plim(X′X)−1X′y=β+plim(X′X)−1X′u=β