Болезни Военный билет Призыв

Законы распределения функций нескольких случайных величин. Конспект лекций по математике теория вероятностей математическая статистика

Рассмотрим систему двух случайных непрерывных величин . Законом распределения этой системы является нормальный закон распределения, если функция плотности вероятности этой системы имеет вид

. (1.18.35)

Можно показать, что здесь – математические ожидания случайных величин, – их среднеквадратические отклонения, – коэффициент корреляции величин . Вычисления по формулам (1.18.31) и (1.18.35) дают

. (1.18.36)

Легко видеть, что если случайные величины , распределенные по нормальному закону не коррелированны , то они являются также и независимыми

.

Таким образом, для нормального закона распределения не коррелированность и независимость – эквивалентные понятия.

Если , то случайные величины зависимы. Условные законы распределения вычисляются по формулам (1.18.20)

. (1.18.37)

Оба закона (1.18.37) представляют собой нормальные распределения. В самом деле, преобразуем, например, второе из соотношений (1.18.37) к виду

.

Это действительно нормальный закон распределения, у которого условное математическое ожидание равно

, (1.18.38)

а условное среднеквадратичное отклонение выражается формулой

. (1.18.39)

Отметим, что в условном законе распределения величины при фиксированном значении от этого значения зависит только условное математическое ожидание, но не условная дисперсия – .

На координатной плоскости зависимость (1.18.38) представляет собой прямую линию

, (1.18.40)

которая называется линией регрессии на .

Совершенно аналогично устанавливается, что условное распределение величины при фиксированном значении

, (1.18.41)

есть нормальное распределение с условным математическим ожиданием

, (1.18.42)

условным среднеквадратичным отклонением

. (1.18.43)

В этом случае линия регрессии имеет вид

. (1.18.44)

Линии регрессии (1.18.40) и (1.18.44) совпадают только тогда, когда зависимость между величинами и является линейной. Если величины и независимы, линии регрессии параллельны координатным осям.

Конец работы -

Эта тема принадлежит разделу:

Конспект лекций по математике теория вероятностей математическая статистика

Кафедра высшей математики и информатики.. конспект лекций.. по математике..

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Теория вероятностей
Теория вероятностей – раздел математики, в котором изучаются закономерности случайных массовых явлений. Случайным называется явление, которо

Статистическое определение вероятности
Событием называется случайное явление, которое в результате опыта может появится или не появится (двузначное явление). Обозначают события большими латинскими буквами

Пространство элементарных событий
Пусть с некоторым опытом связано множество событий, причем: 1) в результате опыта появляется одно и только одно

Действия на событиями
Суммой двух событий и

Перестановки
Число различных перестановок из элементов обозначается

Размещения
Размещением из элементов по

Сочетания
Сочетанием из элементов по

Формула сложения вероятностей для несовместных событий
Теорема. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий. (1

Формула сложения вероятностей для произвольных событий
Теорема. Вероятность суммы двух событий равна сумме вероятностей этих событий без вероятности их произведения.

Формула умножения вероятностей
Пусть даны два события и. Рассмотрим событие

Формула полной вероятности
Пусть – полная группа несовместных событий, их называют гипотезами. Рассмотрим некоторое событие

Формула вероятностей гипотез (Байеса)
Рассмотрим снова – полную группу несовместных гипотез и событие

Асимптотическая формула Пуассона
В тех случаях, когда число испытаний велико, а вероятность появления события

Случайные дискретные величины
Случайной называется величина, которая при повторении опыта может принимать неодинаковые числовые значения. Случайная величина называется дискретной,

Случайные непрерывные величины
Если в результате опыта случайная величина может принимать любое значение из некоторого отрезка или всей действительной оси, то она называется непрерывной. Законо

Функция плотности вероятности случайной непрерывной величины
Пусть. Рассмотрим точку и дадим ей приращени

Числовые характеристики случайных величин
Случайная дискретная или непрерывная величины считаются полностью заданными, если известны их законы распределения. В самом деле, зная законы распределения можно всегда вычислить вероятность попада

Квантили случайных величин
Квантилем порядка случайной непрерывной величины

Математическое ожидание случайных величин
Математическое ожидание случайной величины характеризует ее среднее значение. Все значения случайной величины группируются вокруг этого значения. Рассмотрим сначала случайную дискретную величину

Среднеквадратичное отклонение и дисперсия случайных величин
Рассмотрим сначала случайную дискретную величину. Числовые характеристики мода, медиана, квантили и математическое ожида

Моменты случайных величин
Кроме математического ожидания и дисперсии в теории вероятностей используются числовые характеристики более высоких порядков, которые называются моментами случайных величин.

Теоремы о числовых характеристиках случайных величин
Теорема 1. Математическое ожидание неслучайной величины равно самой этой величине. Доказательство:Пусть

Биномиальный закон распределения

Закон распределения Пуассона
Пусть случайная дискретная величина, принимающая значения

Равномерный закон распределения
Равномерным законом распределения случайной непрерывной величины называется закон функция плотности вероятности, которого

Нормальный закон распределения
Нормальным законом распределения случайной непрерывной величины называется закон функция плотност

Экспоненциальный закон распределения
Экспоненциальное или показательное распределение случайной величины применяется в таких приложениях теории вероятностей, как теория массового обслуживания, теория надежности

Системы случайных величин
На практике в приложениях теории вероятностей часто приходиться сталкиваться с задачами, в которых результаты эксперимента описываются не одной случайной величиной, а сразу несколькими случайными в

Система двух случайных дискретных величин
Пусть две случайные дискретные величины образуют систему. Случайная величина

Система двух случайных непрерывных величин
Пусть теперь систему образуют две случайные непрерывные величины. Законом распределения этой системы называется вероятно

Условные законы распределения
Пусть и зависимые случайные непрерывные велич

Числовые характеристики системы двух случайных величин
Начальным моментом порядка системы случайных величин

Система нескольких случайных величин
Полученные результаты для системы их двух случайных величии могут быть обобщены на случай систем, состоящих из произвольного числа случайных величин. Пусть система образована совокупностью

Предельные теоремы теории вероятностей
Основной целью дисциплины теория вероятностей является изучение закономерностей случайных массовых явлений. Практика показывает, что наблюдение массы однородных случайных явлений обнаружив

Неравенство Чебышева
Рассмотрим случайную величину с математическим ожиданием

Теорема Чебышева
Если случайные величины попарно независимы и имеют конечные ограниченные в совокупности дисперсии

Теорема Бернулли
При неограниченном увеличении числа опытов частота появления события сходится по вероятности к вероятности события

Центральная предельная теорема
При сложении случайных величин с любыми законами распределения, но с ограниченными в совокупности дисперсиями, закон расп

Основные задачи математической статистики
Рассмотренные выше законы теории вероятностей представляют собой математическое выражение реальных закономерностей, фактически существующих в различных случайных массовых явлениях. Изучая

Простая статистическая совокупность. Статистическая функция распределения
Рассмотрим некоторую случайную величину, закон распределения которой неизвестен. Требуется на основании опытных данных о

Статистический ряд. Гистограмма
При большом числе наблюдений (порядка сотен) генеральная совокупность становится неудобной и громоздкой для записи статистического материала. Для наглядности и компактности статистический материал

Числовые характеристики статистического распределения
В теории вероятностей рассматривались различные числовые характеристики случайных величин: математическое ожидание, дисперсию, начальные и центральные моменты различных порядков. Аналогичные числов

Выбор теоретического распределения по методу моментов
Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с ограниченностью числа наблюдений. При большом числе наблюдений эти элементы случайности сглаживаются,

Проверка правдоподобия гипотезы о виде закона распределения
Пусть заданное статистическое распределение аппроксимировано некоторой теоретической кривой или

Критерии согласия
Рассмотрим один из наиболее часто применяемых критериев согласия – так называемый критерий Пирсона. Предположи

Точечные оценки для неизвестных параметров распределения
В п.п. 2.1. – 2.7 мы подробно рассмотрели способы решения первой и второй основных задач математической статистики. Это задачи определения законов распределения случайных величин по опытным данным

Оценки для математического ожидания и дисперсии
Пусть над случайной величиной с неизвестными математическим ожиданием

Доверительный интервал. Доверительная вероятность
На практике при малом числе опытов над случайной величиной приближенная замена неизвестного параметра

Определение . Случайные величины Х 1 , Х 2 , …, Х n называются независимыми, если для любых x 1, x 2 , …, x n независимы события

{ω: Х 1 (ω) < x},{ω: Х 2 (ω) < x},…, {ω: Х n (ω) < x n }.

Из определения непосредственно следует, что для независимых случайных величин Х 1 , Х 2 , …, Х n функция распределения n -мерной случайной величины Х = Х 1 , Х 2 , …, Х n равна произведению функций распределения случайных величин Х 1 , Х 2 , …, Х n

F (x 1 , x 2 , …, x n ) = F (x 1 )F (x 2 )…F (x n ). (1)

Продифференцируем равенство (1) n раз по x 1 , x 2 , …, x n , получим

p (x 1 , x 2 , …, x n ) = p (x 1 )p (x 2 )…p (x n ). (2)

Можно дать другое определение независимости случайных величин.

Если закон распределения одной случайной величины не зависит от того, какие возможные значения приняли другие случайные величины, то такие случайные величины называются независимыми в совокупности.

Например, приобретены два лотерейных билета различных выпусков. Пусть Х – размер выигрыша на первый билет, Y – размер выигрыша на второй билет. Случайные величины Х и Y – независимые, так как выигрыш одного билета никак не повлияет на закон распределения другого. Но если билеты одного выпуска, то Х и Y – зависимые.

Две случайные величины называются независимыми, если закон распределения одной из них не меняется от того, какие возможные значения приняла другая величина.

Теорема 1 (свёртки) или «теорема о плотности суммы 2 случайных величин».

Пусть X = (Х 1 ;Х 2 ) – независимая непрерывная двумерная случайная величина, Y = Х 1 + Х 2 . Тогда плотность распределения

Доказательство . Можно показать, что если , то

где Х = (Х 1 , Х 2 , …, Х n ). Тогда, если Х = (Х 1 , Х 2), то функцию распределения Y = X 1 + X 2 можно определить так (рис. 1) –

=.

В соответствии с определением, функция является плотностью распределения случайной величины Y = X 1 + X 2 , т.е.

p y (t ) = что и требовалось доказать.

Выведем формулу для нахождения распределения вероятностей суммы двух независимых дискретных случайных величин.

Теорема 2. Пусть Х 1 , Х 2 – независимые дискретные случайные величины,

, , тогда

Доказательство . Представим событие A x = {Х 1 +Х 2 = x } в виде суммы несовместимых событий

A x = å(Х 1 = x i ; Х 2 = x x i).

Так как Х 1 , Х 2 – независимые то P (Х 1 = x i ; Х 2 = x x i) = P (Х 1 = x i) P (Х 2 = x – x i), тогда

P (A x ) = P (å(Х 1 = x i ; Х 2 = x – x i )) = å(P (Х 1 = x i ) P (Х 2 = x – x i)),

что и требовалось доказать.

Пример 1. Пусть Х 1 , Х 2 – независимые случайные величины, имеющие нормальное распределение с параметрами N (0;1); Х 1 , Х 2 ~ N (0;1).

Найдём плотность распределения их суммы (обозначим Х 1 = x , Y = X 1 +X 2)


Легко видеть, что подинтегральная функция является плотностью распределения нормальной случайной величины с параметрами а = , , т.е. интеграл равен 1.

.

Функция p y (t ) является плотностью нормального распределения с параметрами а = 0, s = . Таким образом сумма независимых нормальных случайных величин с параметрами (0,1) имеет нормальное распределение с параметрами (0,), т.е. Y = Х 1 + Х 2 ~ N (0;).

Пример 2 . Пусть заданы две дискретные независимые случайные величины, имеющие распределение Пуассона , тогда

, (5)

где k, m, n = 0, 1, 2, …,¥.

По теореме 2 имеем:

Пример 3. Пусть Х 1, Х 2 – независимые случайные величины, имеющие экспоненциальное распределение . Найдём плотность Y = Х 1 +Х 2 .

Обозначим x = x 1. Так как Х 1, Х 2 – независимые случайные величины, то воспользуемся «теоремой свертки»

Можно показать, что если задана сумма (Х i имеют экспоненциальное распределение с параметром l), то Y =имеет распределение , которое называется распределением Эрланга (n – 1) порядка. Этот закон был получен при моделировании работы телефонных станций в первых работах по теории массового обслуживания.

В математической статистике часто используют законы распределения случайных величин, являющихся функциями независимых нормальных случайных величин. Рассмотрим три закона наиболее часто встречающихся при моделировании случайных явлений.

Теорема 3. Если независимы случайные величины Х 1, ..., Х n , то независимы также функции от этих случайных величин Y 1 = f 1 (Х 1), ...,Y n = f n (Х n ).

Распределение Пирсона (c 2 -распределение ). Пусть Х 1, ..., Х n – независимые нормальные случайные величины с параметрами а = 0, s = 1. Составим случайную величину

Воспользуемся изложенным выше общим методом для решения одной задачи, а именно для нахождения закона распределения суммы двух случайных величин. Имеется система двух случайных величин (X,Y) с плотностью распределения f(x,у).

Рассмотрим сумму случайных величин X и Y: и найдем закон распределения величины Z. Для этого построим на плоскости хОу линию, уравнение которой (рис. 6.3.1). Это - прямая, отсекающая на осях отрезки, равные z. Прямая делит плоскость хОу на две части; правее и выше ее ; левее и ниже

Область D в данном случае - левая нижняя часть пло­скости хОу, заштрихованная на рис. 6.3.1. Согласно формуле (6.3.2) имеем:

Это - общая формула для плотности распределения суммы двух случайных величин.

Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы:

Требуется произвести композицию этих законов, т. е. найти закон распределения величины: .

Применим общую формулу для композиции законов рас­пределения:

Подставляя эти выражения в уже встречавшуюся нам формулу

а это есть не что иное, как нормальный закон с центром рассеи­вания

К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений.

Не раскрывая скобок и не производя преобразований в подынте­гральной функции (6.3.3), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида

где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С - в квадрате. Имея это в виду и применяя формулу(6.3.4), приходим к заключению, что g(z) есть показательная функция, показатель степени которой - квадратный трехчлен относительно z, а плотность аспределения; такого вида соответствует нормальному закону. Таким образом, мы; приходим к чисто качественному выводу: закон распределения вели­чины z должен быть нормальным. Чтобы найти параметры этого закона - и - воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий.

По теореме сложения математических ожиданий . По теореме сложения дисперсий или откуда следует формула (6.3.7).

Переходя от среднеквадратических отклонений к пропорциональным им вероятным отклонениям, получим:
.

Таким образом, мы пришли к следующему правилу: при компо­зиции нормальных законов получается снова нормальный за­кон, причем математические ожидания и дисперсии (или квад­раты вероятных отклонений) суммируются.

Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин.

Если имеется n независимых случайных величин: подчиненных нормальным законам с центрами рассеивания и среднеквадратическими отклонениями ,то величина также подчинена нормальному закону с параметрами

Если система случайных величин (X, Y) распределена по нормальному закону, но величины X, Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (6.3.1), что закон распределения величины есть тоже нормальный закон. Центры рассеивания по-прежнему складываются алгебраически, но для среднеквадратических отклонений правило становится более сложным: , где, r - коэффициент корреляции величин X и Y.

При сложении нескольких зависимых случайных величин, подчиненных в своей совокупности нормальному закону, закон распределения суммы также оказывается нормальным с параметрами

где - коэффициент корреляции величин X i , X j , а суммирование распространяется на все различные попарные комбинации величин .

Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это - так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа. Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. Закон равномерной плотности неустойчив: при композиции двух законов равномерной плотности на участках от 0 до 1 мы получили закон Симпсона.

Устойчивость нормального закона - одно из существенных условий его широкого распространения на практике. Однако свойством устойчивости, кроме нормального, обладают и некоторые другие законы распределения. Особенностью нор­мального закона является то, что при композиции достаточно боль­шого числа практически произвольных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча­стках от 0 до 1. Получающийся при этом закон распределения g(z) изображен на рис. 6.3.1. Как видно из чертежа, график функции g(z) весьма напоминает график нормального закона.



Функция двух случайных величин. Распределение суммы

независимых слагаемых.

Определение 10.2. Если каждой паре возможных значений случайных величин Х и Y соответ-ствует одно возможное значение случайной величины Z , то Z называют функцией двух случайных аргументов X и Y : Z = φ (X, Y ).

Рассмотрим в качестве такой функции сумму Х + Y . В некоторых случаях можно найти ее закон распределения, зная законы распределения слагаемых.

1) Если X и Y – дискретные независимые случайные величины, то для определения закона распределения Z = Х + Y нужно найти все возможные значения Z и соответствующие им вероятности.

Пример 4. Рассмотрим дискретные случайные величины X и Y , законы распределения которых имеют вид: Х -2 1 3 Y 0 1 2

р 0,3 0,4 0,3 р 0,2 0,5 0,3

Найдем возможные значения Z : -2 + 0 = -2 (р = 0,3·0,2 = 0,06), -2 + 1 = -1 (р = 0,3·0,5 = 0,15), -2 + 2 = 0 (р = 0,3·0,3 = 0,09), 1 + 0 = 1 (р = 0,4·0,2 = 0,08), 1 + 1 = 2 (р = 0,4·0,5 = 0,2), 1 + 2 = 3 (р = 0,4·0,3 = 0,12), 3 + 0 = 3 (р = 0,3·0,2 = 0,06), 3 + 1 = 4 (р = 0,3·0,5 = 0,15), 3 + 2 = 5 (р = 0,3·0,3 = 0,09). Сложив вероятности повторившегося дважды значения Z = 3, составим ряд распределения для Z :


Z

-2

-1

0

1

2

3

4

5

р

0,06

0,15

0,09

0,08

0,2

0,18

0,15

0,09

  1. Если X и Y – непрерывные независимые случайные величины, то, если плотность вероятно-сти хотя бы одного из аргументов задана на (-∞, ∞) одной формулой, то плотность суммы g (z ) можно найти по формулам
(10.5)

Где f 1 (x ), f 2 (y ) – плотности распределения слагаемых. Если возможные значения аргументов неотрицательны, то

Замечание. Плотность распределения суммы двух независимых случайных величин называют композицией .

Устойчивость нормального распределения.

Определение 10.3. Закон распределения вероятностей называется устойчивым , если компози-ция таких законов есть тот же закон (возможно, отличающийся другими значениями парамет-ров).

В частности, свойством устойчивости обладает нормальный закон распределения: композиция нормальных законов тоже имеет нормальное распределение, причем ее математическое ожидание и дисперсия равны суммам соответствующих характеристик слагаемых.

Лекция 11.

Нормальный закон распределения на плоскости. Линейная регрессия. Линейная корреляция.

Определение 11.1. Нормальным законом распределения на плоскости называют распре-деление вероятностей двумерной случайной величины (X, Y ), если

(11.1)

Таким образом, нормальный закон на плоскости определяется 5 параметрами: а 1 , а 2 , σ х , σ у , r xy , где а 1 , а 2 – математические ожидания, σ х , σ у – средние квадратические отклонения, r xy – коэффи-циент корреляции Х и Y . Предположим, что r xy = 0, то есть Х и Y некоррелированы. Тогда из (11.1) получим:

Следовательно, из некоррелированности составляющих нормально распределенной двумерной случайной величины следует их независимость, то есть для них понятия независимости и некоррелированности равносильны.

Линейная регрессия.

Пусть составляющие Х и Y двумерной случайной величины (Х , Y ) зависимы. Будем считать, что одну из них можно приближенно представить как линейную функцию другой, например

Y ≈ g (Х ) = α + βХ, (11.2)

И определим параметры α и β с помощью метода наименьших квадратов.

Определение 11.2. Функция g (Х ) = α + βХ называется наилучшим приближением Y в смысле метода наименьших квадратов, если математическое ожидание М (Y - g (Х )) 2 принимает наименьшее возможное значение; функцию g (Х ) называют среднеквадратической регрессией Y на Х .

Теорема 11.1. Линейная средняя квадратическая регрессия Y на Х имеет вид:

(11.3)

Где - коэффициент корреляции Х и Y.

Доказательство. Рассмотрим функцию

F (α, β ) = M (Y – α – βX )² (11.4)

И преобразуем ее, учитывая соот-ношения M (X – m x ) = M (Y – m y ) = 0, M ((X – m x )(Y – m y )) = =K xy = rσ x σ y :

Найдем стационарные точки полученной функции, решив систему

Решением системы будет
.

Можно проверить, что при этих значениях функция F (α, β ) имеет минимум, что доказывает утверждение теоремы.

Определение 11.3. Коэффициент
называется коэффициентом регрессии Y на Х , а прямая
- (11.5)

- прямой среднеквадратической регрессии Y на Х .

Подставив координаты стационарной точки в равенство (11.4), можно найти минимальное значение функции F (α, β ), равное
Эта величина называется остаточной дисперсией Y относительно Х и характеризует величину ошибки, допускаемой при замене Y на g (Х ) = α+βХ. При
остаточная дисперсия равна 0, то есть равенство (11.2) является не приближенным, а точным. Следовательно, при Y и Х связаны линейной функциональной зависимостью. Аналогично можно получить прямую среднеквадратической регрессии Х на Y :

(11.6)

И остаточную дисперсию Х относительно Y . При обе прямые регрессии совпадают. Решив систему из уравнений (11.5) и (11.6), можно найти точку пересечения прямых регрессии – точку с координатами (т х , т у ), называемую центром совместного распределения величин Х и Y .

Линейная корреляция.

Для двумерной случайной величины (Х, Y ) можно ввести так называемое условное математи-ческое ожидание Y при Х = х . Для дискретной случайной величины оно определяется как

(11.7)

Для непрерывной случайной величины –

. (11.8)

Определение 11.4. Функцией регрессии Y на Х называется условное математическое ожидание

M (Y / x ) = f (x ).

Аналогично определяется условное математическое ожидание Х и функция регрессии Х на Y.

Определение 11.5. Если обе функции регрессии Х на Y и Y на Х линейны, то говорят, что Х и Y связаны линейной корреляционной зависимостью .

При этом графики линейных функций регрессии являются прямыми линиями, причем можно доказать, что эти линии совпадают с прямыми среднеквадратической регрессии.

Теорема 11.2. Если двумерная случайная величина (Х, Y ) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.

Доказательство. Найдем условный закон распределения Y при Х = х
, используя формулу двумерной плотности вероятности нормального распределения (11.1) и формулу плотности вероятности Х :

. (11.9)

Сделаем замену
. Тогда

=
. Полученное распределение является нормальным, а его мате-матическое ожидание
есть функция регрессии Y на Х (см. опреде-ление 11.4)). Аналогично можно получить функцию регрессии Х на Y :

.

Обе функции регрессии линейны, поэтому корреляция между Х и Y линейна, что и требовалось доказать. При этом уравнения прямых регрессии имеют вид

,
,

То есть совпадают с уравнениями прямых среднеквадратической регрессии (см. формулы (11.5), (11.6)).

Лекция 12.

Распределения «хи-квадрат», Стьюдента и Фишера. Связь этих распределений с нормаль-ным распределением.

Рассмотрим некоторые распределения, связанные с нормальным и широко применяющиеся в математической статистике.

Распределение «хи-квадрат».

Пусть имеется несколько нормированных нормально распределенных случайных величин: Х 1 , Х 2 ,…, Х п (a i = 0, σ i = 1). Тогда сумма их квадратов

(12.1)

Является случайной величиной, распределенной по так называемому закону «хи-квадрат» с k = n степенями свободы; если же слагаемые связаны каким-либо соотношением (например,
), то число степеней свободы k = n – 1.

Плотность этого распределения

(12.2)

Здесь
- гамма-функция; в частности, Г(п + 1) = п ! .

Следовательно, распределение «хи-квадрат» определяется одним параметром – числом степе-ней свободы k .

Замечание 1. С увеличением числа степеней свободы распределение «хи-квадрат» постепенно приближается к нормальному.

Замечание 2. С помощью распределения «хи-квадрат» определяются многие другие распреде-ления, встречающиеся на практике, например, распределение случайной величины
- длины случайного вектора (Х 1 , Х 2 ,…, Х п ), координаты которого независимы и распределены по нормальному закону.

Распределение Стьюдента.

Рассмотрим две независимые случайные величины: Z, имеющую нормальное распределение и нормированную (то есть М (Z ) = 0, σ (Z ) = 1), и V , распределенную по закону «хи-квадрат» с k степенями свободы. Тогда величина

(12.3)

Имеет распределение, называемое t – распределением или распределением Стьюдента с k степенями свободы.

С возрастанием числа степеней свободы распределение Стьюдента быстро приближается к нормальному.

Распределение F Фишера – Снедекора.

Рассмотрим две независимые случайные величины U и V , распределенные по закону «хи-квадрат» со степенями свободы k 1 и k 2 и образуем из них новую величину

. (12.4)

Ее распределение называют распределением F Фишера – Снедекора со степенями свободы k 1 и k 2 . Плотность его распределения имеет вид

(12.5)

Где
. Таким образом, распределение Фишера определяется двумя параметрами – числами степеней свободы.