Глава 9 Примеры на геометрии случайных величин

Конспект: Камила Кунакбаева

Дата: 7 октября 2016 г

Вспомним геометрии случайных величин. Расстояние между случайными величинами X и Y определяется:

  • в геометрии 1 (далее Г1):

\(d(X;Y) = \sqrt{E((X - Y)^2)}\)

  • в геометрии 2 (далее Г2):

\(d(X;Y) = \sqrt{Var(X - Y)}\)

Косинус угла между случайными величинами:

  • Г1:

\(cos(X,Y) = \frac{E(X \cdot Y)}{d(0;X) \cdot d(0;Y)}\)

  • Г2:

\(cos(X,Y) = \frac{Cov(X,Y)}{\sigma_{x} \cdot \sigma_{y}}\)

9.1 Пример 1. Монетка.

Пусть монетка подбрасывается два раза, X - количество орлов. Найти в обеих геометриях:

а) длину X;

б) такие случайные величины Y, что Y перпендикулярна X (X \(\perp\) Y).

Решение.

а)

  • Г1:

\(d(0;X) = \sqrt{E((0 - X)^2)} = \sqrt{E(X^2)} = \sqrt{1/4 \cdot 0^2 + 1/2 \cdot 1^2 + 1/4 \cdot 2^2} = \sqrt{3/2}\)

  • Г2:

\(d(0;X) = \sqrt{Var(0 - X)} = \sqrt{npq} = \sqrt{2 \cdot 1/2 \cdot (1-1/2)} = \sqrt{1/2}\)

Здесь использовалось то, что дисперсия биномиального распределения равна npq.

б) Случайные величины перпендикулярны, если косинус угла между ними равен нулю.

  • Косинус угла в Г1:

\(cos(X,Y) = \frac{E(X \cdot Y)}{d(0;X) \cdot d(0;Y)} = 0,\)

\(E(X \cdot Y) = 0,\)

Составим таблицу значений X и Y. Вероятность каждого исхода равна 1/4.

Возможный исход Значение X Значение Y
Орёл,Орёл 2 \(Y_{o o}\)
Орёл, Решка 1 \(Y_{o p}\)
Решка,Орёл 1 \(Y_{p o}\)
Решка, Решка 0 \(Y_{p p}\)

Тогда \(E(X \cdot Y) = 1/4 \cdot (2 \cdot Y_{o o} + 1 \cdot Y_{o p} + 1 \cdot Y_{p o} + 0 \cdot Y_{p p})=0,\)

\(2 \cdot Y_{o o} + Y_{o p} + Y_{p o}=0.\)

Любые случайные величины Y, удовлетворяющие этому уравнению перпендикулярны X.

Например, случайная величина Z, которая равна 1, если два раза выпали решки, и 0 в остальных случаях. Действительно, \(E(X \cdot Z) = 1/4 \cdot (2 \cdot 0 + 1 \cdot 0 + 1 \cdot 0 + 0 \cdot 1)=0\) => \(cos(X,Z) = 0\) => X \(\perp\) Z в Г1.

  • Косинус угла в Г2:

\(cos(X,Y) = \frac{Cov(X,Y)}{\sigma_{x} \cdot \sigma_{y}} = 0,\)

\(Cov(X,Y) = 0,\)

\(E(X \cdot Y) - E(X) \cdot E(Y) = 0,\)

\(E(X \cdot Y) = E(X) \cdot E(Y),\)

\(E(X \cdot Y) = E(Y),\) т.к. \(E(X) = 1/4 \cdot (2 + 1 + 1 + 0) = 1\)

\(1/4 \cdot (2 \cdot Y_{o o} + 1 \cdot Y_{o p} + 1 \cdot Y_{p o} + 0 \cdot Y_{p p}) = 1/4 \cdot (Y_{o o} + Y_{o p} + Y_{p o} + Y_{p p}),\)

\(2 \cdot Y_{o o} + Y_{o p} + Y_{p o} = Y_{o o} + Y_{o p} + Y_{p o} + Y_{p p},\)

\(Y_{o o} = Y_{p p},\) \(Y_{o p},Y_{p o} = \forall\)

Примером перпендикулярной X величины может быть случайная величина Z, равная Х за вычетом по модулю количества решек.

Возможный исход Значение X Количество решек Значение Z
Орёл,Орёл 2 0 2
Орёл, Решка 1 1 0
Решка,Орёл 1 1 0
Решка, Решка 0 2 2

Тогда \(Cov(X,Z) = E(X \cdot Z) - E(Z) \cdot E(Z) = 1/4 \cdot (2 \cdot 2 + 1 \cdot 0 + 1 \cdot 0 + 0 \cdot 2) - 1 \cdot 1/4 \cdot (2 + 0 + 0 + 2) = 1 - 1 = 0\) => \(cos(X,Y) = 0\) => X \(\perp\) Z

9.2 Бонус!

  • Все теоремы из “обычной” геометрии справедливы и для Г1 и Г2 случайных величин.

Например, теорема Пифагора: \(d^2(X;Y) = d^2(0;X) + d^2(0;Y)\), если X \(\perp\) Y.

Докажем её для Г1.

\(E((X - Y)^2) = E(X^2) + E(Y^2),\)

\(E(X^2) + 2 \cdot E(X \cdot Y) + E(Y^2) = E(X^2) + E(Y^2),\) Т.к. X \(\perp\) Y, то \(E(X \cdot Y) = 0\), из чего следует требуемое.

Второй пример — теорема синусов: \(\frac{d(0;X)}{sin(Y;Y-X)} = \frac{d(0;Y)}{sin(X;Y-X)}.\)

  • Скалярное произведение — < X, Y >.

Расстояние: \(d(X;Y) = \sqrt{d^2(X;Y)} = \sqrt{< X - Y, X - Y >^2}\)

Косинус угла: \(cos(X,Y) = \frac{< X, Y >}{\sqrt{< X , X > \cdot < Y , Y >}}\)

Требования к скалярному произведению:

  1. \(< X, Y > = < Y, X >,\)

  2. \(< X, X > \ge 0,\)

  3. \(< X + Y, Z > = < X, Z > + < Y, Z >,\)

Отсюда, скалярное произведение случайных величин в геометриях 1 и 2:

Г1:

\(< X, Y > = E(X \cdot Y)\)

Г2:

\(< X, Y > = Cov(X,Y)\)

9.3 Геометрии и \(\sigma\)-алгебра.

Определение (свойства) математического ожидания случайной величины относительно сигмы алгебры, т.е. \(E(x|\mathcal{F})\), смотри в предыдущей лекции.

  • Г2

Из свойства 3 \(E(X|\mathcal{F})\):

\(Cov(X,\overset{\heartsuit}{X}) = Cov(\widehat{X},\overset{\heartsuit}{X}),\) где \(\overset{\heartsuit}{X}\) — любая \(\mathcal{F}\)-измеримая случайная величина.

\(Cov(X - \widehat{X},\overset{\heartsuit}{X}) = 0,\)

\(cos(X - \widehat{X},\overset{\heartsuit}{X}) = 0\) в Г2 => \((X - \widehat{X}) \perp Z\) в геометрии 2.

На рисунке это выглядит так: есть плоскость (множество) \(\mathcal{F}\)-измеримых случайных величин, в которой и лежит \(\overset{\heartsuit}{X}\). Тогда \(\widehat{X}\) есть проекция X на эту плоскость в Г2.

Рис.1. Иллюстрация E(X|F) в Г2

Рис.1. Иллюстрация E(X|F) в Г2

Вывод: \(E(X|\mathcal{F})\) — это ближайшая к X случайная величина из множества \(\mathcal{F}\)-измеримых.

“Ближайшая” означает, что расстояние по Г2 между X и \(\widehat{X}\) минимальное. Т.е. \(d_{2}(X;\widehat{X}) = \sqrt{Var(X - \widehat{X})}\) минимально. Значит, \(Var(X - \widehat{X}) \leqslant Var(X - \overset{\heartsuit}{X})\).

  • Г1

Расстояния в Г1 и Г2: \(d_{1}(X;Y) = \sqrt{E((X - Y)^2)}\) и \(d_{2}(X;Y) = \sqrt{Var(X - Y)}\).

\(d_{1}^2(X;Y) = d_{2}^2(X;Y) + E^2(X - Y),\)

\(d_{1}^2(X;Y) \leqslant d_{2}^2(X;Y)\) => в первой геометрии длины короче.

Посмотрим на \(d_{1}(X;Y)\) в случае, если \(Y = E(X|\mathcal{F})\).

Во-первых, \(Var(X - E(X|\mathcal{F}))\) минимально из предыдущего пункта.

Во-вторых, \(E(X - Y) = E(X - E(X|\mathcal{F})) = E(X) - E(E(X|\mathcal{F}) = 0\) по 2 свойству \(E(X|\mathcal{F})\).

Тогда при условии \(Y = E(X|\mathcal{F})\)

\(d_{1}^2(X;Y) = Var(X - Y) + E^2(X - Y)\) тоже минимально.

9.4 Пример 2. Геометрия и \(\sigma\)-алгебра.

\(U \sim U[0;1],\) \(X = U^2,\) \(\mathcal{F}\) = {\(\varnothing\), \(\Omega\), {u \(<\) 0.7}, {u \(\geqslant\) 0.7}}

Найти а) \(E(X),\) б) \(E(X|\mathcal{F})\).

а) \(E(X) = E(U^2) = \int\limits_0^1 u^2 \cdot f(u)\ du = \int\limits_0^1 u^2 \cdot 1\ du = \left. \frac{u^3}{3} \right|_0^1 = \frac{1}{3}.\)

б) \(E(X|\mathcal{F}) = \widehat{X} = \begin{cases} a, & \text{если $u<0.7$;} \\b, & \text{если $u\geqslant 0.7$.} \end{cases}\)

Как мы знаем из Геометрии и \(\sigma\)-алгебра \(\widehat{X}\) минимизирует квадрат расстояния в Г1. Следовательно, найдем \(\widehat{X}\) из минимизации \(d_{1}^2(X;Y) = E((X - Y)^2)\) по a и b.

\(E((X - \widehat{X})^2) = E((U^2 - \widehat{X})^2) = \underset{0}{\overset{0.7}{\int}}(u^2-a)^2 \cdot f(u)\ du + \underset{0.7}{\overset{1}{\int}} (u^2 - b)^2 \cdot f(u)\ du\), т.к.\(f(u) = 1\), то

\(\underset{0}{\overset{0.7}{\int}} (u^4 - 2au^2 + a^2)\ du + \underset{0.7}{\overset{1}{\int}} (u^4 - 2bu^2 + b^2)\ du = (u^5/5 - 2au^3/3 + a^2u) \underset{0}{\overset{0.7}{|}} + (u^5/5 - 2bu^3/3 + b^2u) \underset{0.7}{\overset{1}{|}} =\) \(= \frac{u^5}{5} \underset{0}{\overset{1}{|}} - 2/3a \cdot 0.7^3 - 2/3b \cdot (1-0.7^3) + 0.7a^2 + 0.3b^2 \rightarrow \underset{a,b}{min}\)

Частные производные:

\(\frac{\partial E((X - \widehat{X})^2)}{\partial a} = - 2/3 \cdot 0.7^3 + 1.4a = 0\) => \(a = 0.7^2/3 \thickapprox 0.163\)

\(\frac{\partial E((X - \widehat{X})^2)}{\partial b} = - 2/3 \cdot (1-0.7^3) + 0.6b = 0\) => \(b = \frac{1-0.7^3}{0.9} = 0.73\)

Ответ: \(E(X|\mathcal{F}) = \begin{cases} 0.163, & \text{если $u<0.7$;} \\0.73, & \text{если $u\geqslant 0.7$.} \end{cases}\)

Другой способ нахождения a и b.

\(a = E(u^2|u < 0.7) = \frac{E(u^2)}{P(u < 0.7)} = \underset{0}{\overset{0.7}{\int}}u^2 \cdot f(u)\ du / 0.7 = \frac{u^3}{0.7 \cdot 3} \underset{0}{\overset{0.7}{|}} = 0.7^2 / 3 \thickapprox 0.163\)

\(b = E(u^2|u \ge 0.7) = \frac{E(u^2)}{P(u \ge 0.7)} = \frac{u^3}{0.3 \cdot 3} \underset{0.7}{\overset{1}{|}} = \frac{1-0.7^3}{0.9} = 0.73\)