Глава 9 Примеры на геометрии случайных величин
Конспект: Камила Кунакбаева
Дата: 7 октября 2016 г
Вспомним геометрии случайных величин. Расстояние между случайными величинами X и Y определяется:
- в геометрии 1 (далее Г1):
\(d(X;Y) = \sqrt{E((X - Y)^2)}\)
- в геометрии 2 (далее Г2):
\(d(X;Y) = \sqrt{Var(X - Y)}\)
Косинус угла между случайными величинами:
- Г1:
\(cos(X,Y) = \frac{E(X \cdot Y)}{d(0;X) \cdot d(0;Y)}\)
- Г2:
\(cos(X,Y) = \frac{Cov(X,Y)}{\sigma_{x} \cdot \sigma_{y}}\)
9.1 Пример 1. Монетка.
Пусть монетка подбрасывается два раза, X - количество орлов. Найти в обеих геометриях:
а) длину X;
б) такие случайные величины Y, что Y перпендикулярна X (X \(\perp\) Y).
Решение.
а)
- Г1:
\(d(0;X) = \sqrt{E((0 - X)^2)} = \sqrt{E(X^2)} = \sqrt{1/4 \cdot 0^2 + 1/2 \cdot 1^2 + 1/4 \cdot 2^2} = \sqrt{3/2}\)
- Г2:
\(d(0;X) = \sqrt{Var(0 - X)} = \sqrt{npq} = \sqrt{2 \cdot 1/2 \cdot (1-1/2)} = \sqrt{1/2}\)
Здесь использовалось то, что дисперсия биномиального распределения равна npq.
б) Случайные величины перпендикулярны, если косинус угла между ними равен нулю.
- Косинус угла в Г1:
\(cos(X,Y) = \frac{E(X \cdot Y)}{d(0;X) \cdot d(0;Y)} = 0,\)
\(E(X \cdot Y) = 0,\)
Составим таблицу значений X и Y. Вероятность каждого исхода равна 1/4.
Возможный исход | Значение X | Значение Y |
---|---|---|
Орёл,Орёл | 2 | \(Y_{o o}\) |
Орёл, Решка | 1 | \(Y_{o p}\) |
Решка,Орёл | 1 | \(Y_{p o}\) |
Решка, Решка | 0 | \(Y_{p p}\) |
Тогда \(E(X \cdot Y) = 1/4 \cdot (2 \cdot Y_{o o} + 1 \cdot Y_{o p} + 1 \cdot Y_{p o} + 0 \cdot Y_{p p})=0,\)
\(2 \cdot Y_{o o} + Y_{o p} + Y_{p o}=0.\)
Любые случайные величины Y, удовлетворяющие этому уравнению перпендикулярны X.
Например, случайная величина Z, которая равна 1, если два раза выпали решки, и 0 в остальных случаях. Действительно, \(E(X \cdot Z) = 1/4 \cdot (2 \cdot 0 + 1 \cdot 0 + 1 \cdot 0 + 0 \cdot 1)=0\) => \(cos(X,Z) = 0\) => X \(\perp\) Z в Г1.
- Косинус угла в Г2:
\(cos(X,Y) = \frac{Cov(X,Y)}{\sigma_{x} \cdot \sigma_{y}} = 0,\)
\(Cov(X,Y) = 0,\)
\(E(X \cdot Y) - E(X) \cdot E(Y) = 0,\)
\(E(X \cdot Y) = E(X) \cdot E(Y),\)
\(E(X \cdot Y) = E(Y),\) т.к. \(E(X) = 1/4 \cdot (2 + 1 + 1 + 0) = 1\)
\(1/4 \cdot (2 \cdot Y_{o o} + 1 \cdot Y_{o p} + 1 \cdot Y_{p o} + 0 \cdot Y_{p p}) = 1/4 \cdot (Y_{o o} + Y_{o p} + Y_{p o} + Y_{p p}),\)
\(2 \cdot Y_{o o} + Y_{o p} + Y_{p o} = Y_{o o} + Y_{o p} + Y_{p o} + Y_{p p},\)
\(Y_{o o} = Y_{p p},\) \(Y_{o p},Y_{p o} = \forall\)
Примером перпендикулярной X величины может быть случайная величина Z, равная Х за вычетом по модулю количества решек.
Возможный исход | Значение X | Количество решек | Значение Z |
---|---|---|---|
Орёл,Орёл | 2 | 0 | 2 |
Орёл, Решка | 1 | 1 | 0 |
Решка,Орёл | 1 | 1 | 0 |
Решка, Решка | 0 | 2 | 2 |
Тогда \(Cov(X,Z) = E(X \cdot Z) - E(Z) \cdot E(Z) = 1/4 \cdot (2 \cdot 2 + 1 \cdot 0 + 1 \cdot 0 + 0 \cdot 2) - 1 \cdot 1/4 \cdot (2 + 0 + 0 + 2) = 1 - 1 = 0\) => \(cos(X,Y) = 0\) => X \(\perp\) Z
9.2 Бонус!
- Все теоремы из “обычной” геометрии справедливы и для Г1 и Г2 случайных величин.
Например, теорема Пифагора: \(d^2(X;Y) = d^2(0;X) + d^2(0;Y)\), если X \(\perp\) Y.
Докажем её для Г1.
\(E((X - Y)^2) = E(X^2) + E(Y^2),\)
\(E(X^2) + 2 \cdot E(X \cdot Y) + E(Y^2) = E(X^2) + E(Y^2),\) Т.к. X \(\perp\) Y, то \(E(X \cdot Y) = 0\), из чего следует требуемое.
Второй пример — теорема синусов: \(\frac{d(0;X)}{sin(Y;Y-X)} = \frac{d(0;Y)}{sin(X;Y-X)}.\)
- Скалярное произведение — < X, Y >.
Расстояние: \(d(X;Y) = \sqrt{d^2(X;Y)} = \sqrt{< X - Y, X - Y >^2}\)
Косинус угла: \(cos(X,Y) = \frac{< X, Y >}{\sqrt{< X , X > \cdot < Y , Y >}}\)
Требования к скалярному произведению:
\(< X, Y > = < Y, X >,\)
\(< X, X > \ge 0,\)
\(< X + Y, Z > = < X, Z > + < Y, Z >,\)
Отсюда, скалярное произведение случайных величин в геометриях 1 и 2:
Г1:
\(< X, Y > = E(X \cdot Y)\)
Г2:
\(< X, Y > = Cov(X,Y)\)
9.3 Геометрии и \(\sigma\)-алгебра.
Определение (свойства) математического ожидания случайной величины относительно сигмы алгебры, т.е. \(E(x|\mathcal{F})\), смотри в предыдущей лекции.
- Г2
Из свойства 3 \(E(X|\mathcal{F})\):
\(Cov(X,\overset{\heartsuit}{X}) = Cov(\widehat{X},\overset{\heartsuit}{X}),\) где \(\overset{\heartsuit}{X}\) — любая \(\mathcal{F}\)-измеримая случайная величина.
\(Cov(X - \widehat{X},\overset{\heartsuit}{X}) = 0,\)
\(cos(X - \widehat{X},\overset{\heartsuit}{X}) = 0\) в Г2 => \((X - \widehat{X}) \perp Z\) в геометрии 2.
На рисунке это выглядит так: есть плоскость (множество) \(\mathcal{F}\)-измеримых случайных величин, в которой и лежит \(\overset{\heartsuit}{X}\). Тогда \(\widehat{X}\) есть проекция X на эту плоскость в Г2.

Рис.1. Иллюстрация E(X|F) в Г2
Вывод: \(E(X|\mathcal{F})\) — это ближайшая к X случайная величина из множества \(\mathcal{F}\)-измеримых.
“Ближайшая” означает, что расстояние по Г2 между X и \(\widehat{X}\) минимальное. Т.е. \(d_{2}(X;\widehat{X}) = \sqrt{Var(X - \widehat{X})}\) минимально. Значит, \(Var(X - \widehat{X}) \leqslant Var(X - \overset{\heartsuit}{X})\).
- Г1
Расстояния в Г1 и Г2: \(d_{1}(X;Y) = \sqrt{E((X - Y)^2)}\) и \(d_{2}(X;Y) = \sqrt{Var(X - Y)}\).
\(d_{1}^2(X;Y) = d_{2}^2(X;Y) + E^2(X - Y),\)
\(d_{1}^2(X;Y) \leqslant d_{2}^2(X;Y)\) => в первой геометрии длины короче.
Посмотрим на \(d_{1}(X;Y)\) в случае, если \(Y = E(X|\mathcal{F})\).
Во-первых, \(Var(X - E(X|\mathcal{F}))\) минимально из предыдущего пункта.
Во-вторых, \(E(X - Y) = E(X - E(X|\mathcal{F})) = E(X) - E(E(X|\mathcal{F}) = 0\) по 2 свойству \(E(X|\mathcal{F})\).
Тогда при условии \(Y = E(X|\mathcal{F})\)
\(d_{1}^2(X;Y) = Var(X - Y) + E^2(X - Y)\) тоже минимально.
9.4 Пример 2. Геометрия и \(\sigma\)-алгебра.
\(U \sim U[0;1],\) \(X = U^2,\) \(\mathcal{F}\) = {\(\varnothing\), \(\Omega\), {u \(<\) 0.7}, {u \(\geqslant\) 0.7}}
Найти а) \(E(X),\) б) \(E(X|\mathcal{F})\).
а) \(E(X) = E(U^2) = \int\limits_0^1 u^2 \cdot f(u)\ du = \int\limits_0^1 u^2 \cdot 1\ du = \left. \frac{u^3}{3} \right|_0^1 = \frac{1}{3}.\)
б) \(E(X|\mathcal{F}) = \widehat{X} = \begin{cases} a, & \text{если $u<0.7$;} \\b, & \text{если $u\geqslant 0.7$.} \end{cases}\)
Как мы знаем из Геометрии и \(\sigma\)-алгебра \(\widehat{X}\) минимизирует квадрат расстояния в Г1. Следовательно, найдем \(\widehat{X}\) из минимизации \(d_{1}^2(X;Y) = E((X - Y)^2)\) по a и b.
\(E((X - \widehat{X})^2) = E((U^2 - \widehat{X})^2) = \underset{0}{\overset{0.7}{\int}}(u^2-a)^2 \cdot f(u)\ du + \underset{0.7}{\overset{1}{\int}} (u^2 - b)^2 \cdot f(u)\ du\), т.к.\(f(u) = 1\), то
\(\underset{0}{\overset{0.7}{\int}} (u^4 - 2au^2 + a^2)\ du + \underset{0.7}{\overset{1}{\int}} (u^4 - 2bu^2 + b^2)\ du = (u^5/5 - 2au^3/3 + a^2u) \underset{0}{\overset{0.7}{|}} + (u^5/5 - 2bu^3/3 + b^2u) \underset{0.7}{\overset{1}{|}} =\) \(= \frac{u^5}{5} \underset{0}{\overset{1}{|}} - 2/3a \cdot 0.7^3 - 2/3b \cdot (1-0.7^3) + 0.7a^2 + 0.3b^2 \rightarrow \underset{a,b}{min}\)
Частные производные:
\(\frac{\partial E((X - \widehat{X})^2)}{\partial a} = - 2/3 \cdot 0.7^3 + 1.4a = 0\) => \(a = 0.7^2/3 \thickapprox 0.163\)
\(\frac{\partial E((X - \widehat{X})^2)}{\partial b} = - 2/3 \cdot (1-0.7^3) + 0.6b = 0\) => \(b = \frac{1-0.7^3}{0.9} = 0.73\)
Ответ: \(E(X|\mathcal{F}) = \begin{cases} 0.163, & \text{если $u<0.7$;} \\0.73, & \text{если $u\geqslant 0.7$.} \end{cases}\)
Другой способ нахождения a и b.
\(a = E(u^2|u < 0.7) = \frac{E(u^2)}{P(u < 0.7)} = \underset{0}{\overset{0.7}{\int}}u^2 \cdot f(u)\ du / 0.7 = \frac{u^3}{0.7 \cdot 3} \underset{0}{\overset{0.7}{|}} = 0.7^2 / 3 \thickapprox 0.163\)
\(b = E(u^2|u \ge 0.7) = \frac{E(u^2)}{P(u \ge 0.7)} = \frac{u^3}{0.3 \cdot 3} \underset{0.7}{\overset{1}{|}} = \frac{1-0.7^3}{0.9} = 0.73\)