WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     || 2 | 3 | 4 | 5 |   ...   | 8 |
Московский авиационный институт (государственный технический университет) А.Р. Панков Е.Н. Платонов ПРАКТИКУМ ПО МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ ИЗДАТЕЛЬСТВО МАИ М о с к в а 2 0 0 6 519.2 (075) K 686 УДК: 519.246.2 (075.8) ОГЛАВЛЕНИЕ Предисловие................................... 4 Список основных сокращений и обозначений................ 5 § 1. Гауссовский случайный вектор.................... 6 Панков А.Р., Платонов Е.Н. Практикум по математической статисти§ 2. Сходимость последовательностей случайных величин...... 12 ке: Учебное пособие. М.: Изд-во МАИ, 2006.

§ 3. Центральная предельная теорема.................. 15 § 4. Закон больших чисел......................... 21 § 5. Выборка и ее основные характеристики.............. 26 § 6. Точечные оценки и их свойства................... 33 Данное учебное пособие предназначено для практических занятий и § 7. Методы построения точечных оценок параметров........ 39 самостоятельной работы студентов по математической статистике.

§ 8. Эффективность точечных оценок.................. 46 § 9. Интервальные оценки параметров.................. 54 § 10. Проверка параметрических гипотез................ 62 § 11. Проверка непараметрических гипотез............... 69 § 12. Метод наименьших квадратов................... 75 § 13. Таблицы................................ 84 Список литературы............................... 87 СПИСОК ОСНОВНЫХ ПРЕДИСЛОВИЕ СОКРАЩЕНИЙ И ОБОЗНАЧЕНИЙ Данное учебное пособие предназначено для методического обеспеСВ случайная величина или случай- cov{, } ковариация СВ и ;

чения практических занятий и самостоятельной работы студентов в ный вектор;

рамках курса “Математическая статистика”, изучаемого на факультете центрированная СВ ;

СП случайная последовательность;

“Прикладной математики и физики” МАИ в объеме 32 часов лекций и () распределение Пуассона с паRn n-мерное (вещественное) евкли32 часов практических занятий.

раметром ;

дово пространство;

Пособие состоит из тринадцати разделов. Первые четыре раздела Bi(N; p) биномиальное распреA транспонированная матрица;

посвящены более углубленному изучению разделов курса теории веделение с параметрами N, p;

A-1 обратная матрица;

роятностей, имеющих особое значение для математической статистики R[a; b] равномерное распределение I единичная матрица;

(гауссовское многомерное распределение, сходимость последовательно- на отрезке [a, b];

tr[A] след матрицы A;

стей случайных величин, законы больших чисел, центральная предель- E() экспоненциальное распределеdet[A] определитель матрицы A; ние с параметром ;

ная теорема). Разделы с пятого по двенадцатый посвящены изучению A 0 неотрицательно опреде- N (m; D) гауссовское распределение важнейших понятий и методов собственно математической статистиленная матрица; со средним m и дисперсией (коваки (выборочный метод, оценки параметров и методы их построения, риационной матрицей) D;

exp{x} = ex экспонента;

проверка статистических гипотез, линейный регрессионный анализ). В X() характеристическая функmax(x1,..., xn) максимум из последнем разделе приведены таблицы, используемые для статистичеция n-мерного гауссовского расx1,..., xn;

ских расчетов. Каждый из разделов содержит три подраздела: в первом пределения:

arg min f(x) точка минимума фунсодержатся основные определения и утверждения (в виде лемм, теорем xX 2, Hn распределение хи-квадрат с n и следствий), во втором приведены важные с методической точки зрекции f(x) на множестве X;

n степенями свободы;

ния примеры, снабженные подробными решениями и комментариями, а пространство элементарных собыT распределение Стьюдента c r r в третьем подразделе приведены условия задач, предназначенных для тий (исходов) ;

степенями свободы;

самостоятельной работы студентов. Все задачи снабжены указаниями и F -алгебра случайных событий (x) интеграл вероятностей (фунответами.

(подмножеств );

кция Лапласа);

При подготовке материала пособия авторы пользовались источникаp P{A} вероятность (вероятностная n - сходимость по вероятности;

ми [5, 7 - 9] (теория вероятностей), [2, 4 - 8] (математическая статистимера) события A;

с.к.

n - сходимость в среднем кав-ка), [1, 3, 4] (примеры и задачи), в которых могут быть найдены доказа{, F, P} основное вероятностное дратическом (с.к.-сходимость);

тельства основных теоретических положений, дополнительные примеры пространство;

п.н.

n - сходимость почти навер-и задачи. невозможное событие;

ное;

Пособие ориентировано не только на студентов, обучающихся по спеF(x) функция распределения d циальности “Прикладная математика”, но также на студентов техниче- СВ ;

n - сходимость по распределе ских университетов, специализирующихся в области теории управления, F (x) СВ имеет распределение нию (слабая сходимость);

F (x);

обработки информации, экономической статистики, социологии.

u квантиль уровня распределеp(x) плотность распределения ния N (0; 1);

СВ ;

k(n) - квантиль уровня распредеm = M{} математическое ожида- ления Hn;

t(r) квантиль уровня распредение (среднее) СВ ;

ления T D = D{} дисперсия СВ ; r 6 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1. § 1. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1. Гауссовский случайный вектор Пусть Z = {X, Y } гауссовский вектор. Обозначим mX = = M{X}, mY = M{Y }, K = cov(X, X), K = cov(Y, Y ), K = X Y XY = cov(X, Y ), где M{·} математическое ожидание, а cov(·, ·) ковариация.



1.1. Теоретические положения. Пусть mX Rn произвольный Т е о р е м а 1.1. Пусть K > 0. Условное распределение вектора X Y вектор, а K Rnn симметричная неотрицательно определенная X относительно Y является гауссовским с параметрами mX| Y и K, X| Y матрица (K = K, KX 0).

X X где О п р е д е л е н и е 1.1. Случайный вектор X Rn имеет n-мерное -гауссовское распределение с параметрами (mX; K ), если его характеX mX| Y = mX + K K (Y - mY ), (1.4) XY Y ристическая функция X(), Rn имеет вид -K = K - K K (K ). (1.5) X| Y X XY Y XY X() = exp imX - K, (1.1) X Случайный вектор mX| Y называется условным математическим ожиданием X относительно Y, а неслучайная матрица K условной где i мнимая единица (i2 = -1).

X| Y ковариационной матрицей.

Обозначение: X N (mX; K ).

X Предположим, что требуется найти приближенное значение вектора Параметры mX и K являются, соответственно, математическим X X Rp по наблюдениям Y Rq, причем Z = {X, Y } Rn, n = p + ожиданием и ковариационной матрицей вектора X.

+ q гауссовский вектор.

О п р е д е л е н и е 1.2. Гауссовский вектор X называется невырожденО п р е д е л е н и е 1.3. Оценкой для X по наблюдениям Y будем назыным, если матрица K положительно определенная (K > 0).

X X вать случайный вектор X = (Y ), где (·) произвольная борелевская Если K > 0, а X = det[K ] определитель матрицы K, то X X X X функция, отображающая Rq в Rp. Величина имеет в каждой точке x Rn плотность вероятности следующего вида:

1 J() = M |X - X|2 = M |X - (Y )|2 (1.6) -pX(x) = [(2)nX]- exp - (x - mX)K (x - mX) (1.2) X называется среднеквадратической погрешностью (с.к.-погрешностью) Гауссовский вектор X имеет следующие основные свойства.

оценки X = (Y ).

1) Если A Rmn, b Rm неслучайные матричные параметры, О п р е д е л е н и е 1.4. Оценка X = (Y ) называется с.к.-оптимальной X N (mX; K ), а Y = AX + b, то X N (mY ; K ), где X Y оценкой для X по наблюдениям Y, если mY = AmX + b; K = AK A. (1.3) J() J(), B, Y X где B класс всех борелевских отображений Rq Rp.

Из (1.3) следует, в частности, что любой подвектор гауссовского векТ е о р е м а 1.2. Пусть K > 0, тогда тора также является гауссовским. Например, если X i-ая компонента Y i вектора X, то X N (mi; 2), где mi i-ая компонента mX, а 2 i-й i i i - X = (Y ) = mX + K K (Y - mY ), (1.7) диагональный элемент матрицы K.

XY Y X 2) Если X N (mX; K ), причем компоненты {X,..., X } вектора X 1 n X некоррелированы (т.е. K диагональная матрица), то случайные X -J() = min J() = tr K - K K (K ), (1.8) X XY Y XY величины {X,..., X } независимы в совокупности. Наоборот, произB 1 n вольная совокупность {X,..., X } независимых гауссовских случайных 1 n величин образует гауссовский случайный вектор. где tr[A] след матрицы A.

8 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1. § 1. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР Теорема 1.2 дает явный вид (1.7) с.к.-оптимальной оценки X в гауссов- Р е ш е н и е. Пусть x = {x1, x2}, X N (mX; K ), тогда из (1.2) X - получаем, что Q(x) = (x - mX)K (x - mX), причем K > 0, так как ском случае, причем из (1.4) и (1.7) следует, что X совпадает с условным X X X невырожден по условию.

математическим ожиданием mX| Y. При этом ковариационная матрица Очевидно, что Q(x) Q(mX) = 0 для любых x R2. Поэтому K = M X(X) ошибки X = X - X оценки X совпадает с X mX найдем из условия mX = arg min Q(x). Воспользуемся необходимым условной ковариационной матрицей K, которая в гауссовском случае x X| Y условием экстремума:

оказывается неслучайной в силу (1.5).

Q(x) = 4x1 + 2x2 - 8 = 0, x(1.10) 1.2. Примеры.

Q(x) = 2x1 + 6x2 - 14 = 0.

П р и м е р 1.1. Доказать, что линейное преобразование Y = AX + x+ b гауссовского вектора X также является гауссовским вектором с параметрами, определенными в (1.3). Решая систему уравнений (1.10), находим m1 = M{X } = 1; m2 = Р е ш е н и е. Пусть X N (mX; K ), тогда из (1.1) следует, что = M{X } = 2. Итак, mX = {1; 2}.

X -Теперь найдем K, оставив в выражении для Q(x) только квадра X X() = exp imX - K. (1.9) тичные члены:

2 X -xK x = 2x2 + 3x2 + 2x1x2.

X 1 Найдем характеристическую функцию Y ():

2 -Из последнего выражения следует, что K =. Таким обра X 1 Y () = M exp T Y = M exp i(AX + b) = 0,6 -0, зом, K =. Так как X = det [K ] = 0,2, то C = X X -0,2 0,= exp ib M exp iAX = exp ib X(), -1 = 2 X =.

где = A. Используя (1.9), из последнего выражения получаем Так как по условию = AX, где A = [2; -1], то N AmX; AK A. Используя найденные параметры mX и K расY () = exp ib exp imX - K = X X 2 X пределения X, находим = exp i(AmX + b) - (AK A).

2 X m = AmX = [2; -1] = 0;

Из полученного выражения для Y () и определения 1.1 следует:

0,6 -0,2 Y N AmX + b; AK A, X D = AK A = [2; -1] = 3,6.

X -0,2 0,4 -что согласуется с (1.3).

Итак, N (0; 3,6).

П р и м е р 1.2. Двумерный гауссовский вектор X = {X, X } имеет П р и м е р 1.3. Пусть Y = X +, где X N (mX; DX), DX > 0, 1 плотность вероятности N (m; D), причем СВ X и независимы. Найти с.к.-оптимальные оценки для Y по наблюдению X и для X по наблюдению Y.

pX(x1, x2) = Cexp{- Q(x1, x2)}, Р е ш е н и е. По условию СВ X и Y образуют гауссовский вектор.

Тогда по теореме 1.где Q(x1, x2) = 2x2 + 3x2 + 2x1x2 - 8x1 - 14x2 + 18.

1 - Найти закон распределения СВ = 2X - X и вычислить C. Y = (X) = mY | X = mY + K K (X - mX).





1 2 Y X X 10 ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР § 1. § 2. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ВЕКТОР x tK = cov(Y, X) = M Y X = M X + X = D{X} + K = DX, где = D = 2, а (x) = e- dt функция Лапласа Y X X так как K = cov(, X) = 0 по условию.

X (интеграл вероятностей).

K = cov(X, X) = D{X} = DX, mY = M{X + } = mX + m.

X 1.3. Задачи для самостоятельного решения.

Таким образом, 1. Пусть компоненты вектора X независимые гауссовские величины с параметрами (0; 1). Найти преобразование Y = (X) такое, что Y N (mY ; K ) Y Y = mX + m + DXD-1(X - mX) = X + m.

для заданных параметров mY и K.

X Y У к а з а н и е. Воспользоваться факторизацией KY = AA.

Найдем теперь X = (Y ) = mX| Y. По теореме 1.2. Случайный вектор Z = {X, Y } имеет плотность вероятности pZ(x, y) = -1 - = exp{-Q(x, y)}, где Q(x, y) = 2x2 + 1,5y2 - 2xy + 2x + 6y + 18. Вычислить X = mX + K K (Y - mY ) = mX + DXK (Y - mX - m).

XY Y Y P(X > Y ).

r „ « K = cov(Y, Y ) = D{Y } = D{X + } = D{X} + D{} = DX + D Y 5 О т в е т. 1 - -.

с учетом того, что X и независимы. Итак, 2 » – » – -1 2 0,DX 3. Известно, что X N (mX; K ), где mX =, K =.

X X X = mX + (Y - mX - m). 2 0,5 DX + D Найти плотность вероятности вектора X.

` О т в е т. pX(x, y) = exp - x2 + 2y2 - xy + 4x - 9y + 11.

Заметим, что дисперсию ошибки X = X - X оценки можно вычис- лить по формуле (1.5):

4. В условиях задачи 3 найти характеристическую функцию и плотность » – » – 1 3 --1 вероятности первой компоненты вектора Y = X +.

D X = K = DX - K K (K ) = 0 -2 X| Y XY Y XY О т в е т. Y () = exp 3i1 - 2i2 + 712 - 72 - 22 ; pY1(x) = 1 ff D2 DX X (x - 3)= DX - = DX 1 - < DX.

= (28)- 2 -.

exp DX + D DX + D 5. Случайный вектор Z = {X, } имеет Таким образом, информация об X в виде измерения Y позволяет уточ Y характеристическую функцию Z(1, 2) = exp 12 - 2 - 1,52. Найти M (X - Y )2.

нить тривиальную оценку для X: X = mX, дисперсия ошибки которой 1 О т в е т. 7.

D X = DX.

6. Получены два наблюдения Y = 2X + k, k = 1, 2 случайной величины k X N (1; 4). Ошибки наблюдения 1 и 2 не зависят друг от друга и от X П р и м е р 1.4. Характеристическая функция вектора X = {X, X } 1 и имеют распределение N (0; 1). Найти с.к.-оптимальную оценку Xb для X по имеет вид X() = exp -(2 + 2). Вычислить P (|X - X | 6).

1 2 1 наблюдениям Y = {Y, Y }.

Р е ш е н и е. Из (1.1) следует, что компоненты X и X независимы и 1 1 8(Y + Y ) + 1 распределены по закону N (0; 2). Поэтому = X - X N (m; D), где О т в е т. Xb=.

1 m = M{X - X } = 0, а D = D{X - X } = DX + DX = 4.

1 2 1 1 7. Пусть {X, Y } гауссовский вектор, K > 0, Xb с.к.-оптимальная Y Таким образом, оценка для X по Y, а X = Xb- X ее ошибка. Доказать, что а) M{X} = 0;

6 - m -6 - m -P (|X - X | 6) = P(-6 6) = - 1 2 б) K = K - K K (K );

X X XY Y XY в) случайные векторы X и Xb независимы.

= (3) - (-3) = 0,997, 12 СХОДИМОСТЬ ПОСЛЕДОВАТЕЛЬНОСТЕЙ СЛУЧАЙНЫХ ВЕЛИЧИН § 2. § 2. СХОДИМОСТЬ ПОСЛЕДОВАТЕЛЬНОСТЕЙ СЛУЧАЙНЫХ ВЕЛИЧИН \ [ § 2. Сходимость последовательностей случайных = Ak событие, состоящее в том, что произойдет бесконечно n 1 k n величин много событий {Ai}. Тогда X 1) если P(Ak) <, то P(B) = 0;

2.1. Теоретические положения. Пусть {X,..., X,... } поk=1 n следовательность произвольных случайных величин (заданных на одном X 2) если {A1, A2,..., An,... } независимы и P(Ak) =, то вероятностном пространстве {, F, P}).

k=О п р е д е л е н и е 2.1. X X по вероятности, если для любого > n P(B) = 1.

lim P (|X - X| > ) = 0.

n n О п р д е л е н и е 2.2. X X в среднем квадратическом, если n е 2.2. Примеры.

lim M |X - X|2 = 0.

n p p n П р и м е р 2.1. Пусть X - X, Y - Y, n. Показать, что n n О п р д е л е н и е 2.3. X X почти наверное (с вероятностью 1), p n е X + Y - X + Y, n.

n n если P : lim X () = X() = 1.

n Р е ш е н и е. Пусть > 0, тогда n Указанные виды сходимости будем обозначать, соответственно, P (|(X + Y ) - (X + Y )| > ) = P (|(X - X) + (Y - Y )| > ) p n n n n с.к. п.н.

X - X, X - X, X - X, n.

-- -n n n P (|X - X| + |Y - Y | > ) Перечислим некоторые свойства сходящихся последовательноn n стей. p п.н. с.к.

P |X - X| > + P |Y - Y | > 0, n, 1) Если X - X или X - X, n, то X - X, n.

-- -- n n n n n 2 п.н. п.н.

2) Если X - X, Y - Y, n, a, b = const, тогда -- -n n так как P (|X - X| > ) 0, P (|Y - Y | > ) 0, n для любого n n п.н.

aX + bY - aX + bY, n.

- > 0 по условию.

n n 3) Пусть g(x) произвольная борелевская функция, заданная на пряП р и м е р 2.2. Пусть {X, n = 1, 2,... } последовательность незаn п.н.

висимых случайных величин, M{X } = 0, D{X } D <, а Y = мой R1, а A множество точек разрыва функции g(x). Если X - X, -n n n n n п.н.

X p n, причем P(X A) = 0, то g(X ) - g(X), n.

-= n- X. Показать, что Y - 0, если >.

n k n с.к. k=4) Если X N (mn; Dn) и X - X, n, то X N (mX; DX), -n n n X где mX = lim mn, DX = lim Dn, причем пределы существуют и Р е ш е н и е. M{Y } = n- M{X } = 0. Следовательно, n n n k конечны.

k=5) Свойства 2) и 3) справедливы для сходимости по вероятности, а n n X X свойство 2) для с.к.-сходимости.

D M Y = D n- X = n-2 D{X } n-2nD =.

n k k Для исследования сходимости последовательностей имеют важное n2-k=1 k=значение следующие вспомогательные утверждения.

Т е о р е м а 2.1. Для любых > 0 выполнено неравенство Чебышева По условию = +, где > 0. Отсюда n2-1 = n2.

Pages:     || 2 | 3 | 4 | 5 |   ...   | 8 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.