Если не ошибаюсь, то тут всё достаточно просто... Известно, что $%X_k=\xi_1+\ldots+\xi_k \sim N(0;\sigma_1^2+\ldots+\sigma_k^2)$%... За счёт линейности ковариации и независимости $%\xi_j$%, получим, что при $%k \le m$% $$ \text{Cov}(X_k;X_m) = \text{Cov}(\xi_1;\xi_1)+\ldots+\text{Cov}(\xi_k;\xi_k) = \sigma_1^2+\ldots+\sigma_k^2 $$ Итого, получаем многомерное нормальное распределение с матрицей ковариации (например, при $%n=4$%) $$ \begin{pmatrix} \sigma_1^2 & \sigma_1^2 & \sigma_1^2 & \sigma_1^2 \\ \sigma_1^2 & \sigma_1^2+\sigma_2^2 & \sigma_1^2+\sigma_2^2 & \sigma_1^2+\sigma_2^2 \\ \sigma_1^2 & \sigma_1^2+\sigma_2^2 & \sigma_1^2+\sigma_1^2+\sigma_2^2 & \sigma_1^2+\sigma_2^2+\sigma_3^2 \\ \sigma_1^2 & \sigma_1^2+\sigma_2^2 & \sigma_1^2+\sigma_2^2+\sigma_3^2 & \sigma_1^2+\sigma_2^2+\sigma_3^2+\sigma_4^2 \\ \end{pmatrix} $$ Вроде так... отвечен 12 Май '17 22:51 all_exist |
Тут всё очевидно. Матожидания равны нулю. Вектор гауссов, и он определяется ковариационной матрицей. Ковариация i-й и j-й компоненты (при i<=j) расписывается по линейности. Матричный элемент равен s_1^2+...+s_i^2.