Мегаобучалка Главная | О нас | Обратная связь


Числовые характеристики случайных величин.



2018-06-29 335 Обсуждений (0)
Числовые характеристики случайных величин. 0.00 из 5.00 0 оценок




Математическое ожидание ДСВ – сумма произведений всех её возможных значений на их вероятности: М(Х)=∑xipi. МО приблизительно равно среднему значению СВ, поэтому для решения многих задач достаточно знать МО, а не закон распределения СВ. МО появления события в одном испытании равно вероятности этого события. Свойства МО: 1) М(с)=с. 2) М(сХ)=сМ(Х). Две СВ называют независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. В противном случае случайные величины зависимы. 3) МО произведения двух независимых величин равно произведению их МО. 4) МО суммы двух СВ равно сумме МО слагаемых. Теорема. МО числа появлений события А в n независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании М(Х)=np.

Дисперсия ДСВ показывает как рассеяны возможные значения СВ вокруг её МО. МО отклонения СВ от её среднего значения равно 0: M[X-M(X)]=0. Эта формула не может служить характеристикой рассеяния СВ около её среднего значения, поэтому вводится дисперсия D(X). Дисперсией ДСВ называется МО квадрата отклонения: D(X)=M[X-M(X)]2. Согласно этой формуле ряд распределения D(X)=M[X1-M(X)]2+…+ M[Xk-M(X)]2. D(X)=M[X-M(X)]2=M(X2)-M2(X) – дисперсия равна разности между МО квадрата СВ и квадратом МО. Свойства дисперсии: 1) D(c)=0. 2) D(cX)=c2D(X). 3) Дисперсия суммы конечного числа взаимонезависимых СВ равна сумме дисперсий этих СВ. D(X+Y+…+Z)=D(X)+D(Y)+…+D(Z). 4) D(X-Y)=D(X)+D(Y).

Среднеквадратическое отклонение СВ (σ) есть корень квадратный из дисперсии этой СВ: σ(Х)=(D(X))1/2. В отличие от среднеквадратического отклонение выражается в тех же единицах измерения, что и СВ.

Характеристики более высокого порядка. Через эти характеристики изучается форма распределения кривой (асимметрия – сдвиг вершины либо вправо, либо влево; островершинность – сдвиг вершины либо вверх, либо вниз). Начальным моментом k-го порядка называется МО СВ Хk: νk=M(Xk). Центральным моментом k-го порядка СВ Х называется МО СВ [X-M(X)]k: μk=M[X-M(X)]k. Связь между центральными и начальными моментами. ν00=1, ν1=М(Х), μ1=М(Х-М(Х)), μ2=D(X)=ν212, μ33-3ν2ν1+2ν13, μ44-4ν1ν3+6ν12ν2-3ν14. Коэффициент асимметрии AS33. Коэффициент эксцесса Ех44.

Теоремы Чебышева. 1) Если х1, … xn попарно независимые СВ, имеющие одно и то же МО а и если дисперсии этих величин равномерно ограничены, то для любого ε>0 limn→∞P(!(x1+…+xn)/n-a!<ε)=1 – достаточное событие. 2) Если х1, … xn попарно независимые СВ, причём дисперсии их равномерно ограничены, то как бы мало ни было ε>0 limn→∞P(!(х1+…+xn)/n-(M(x1)+…+M(xn))/n!<ε)=1 – достоверное событие. Сущность теоремы такова: хотя отдельные независимые СВ могут принимать значения, далёкие от своих МО, среднее арифметическое достаточно большого числа СВ с большой вероятностью принимает значения, близкие к определённому постоянному числу (к а или к (M(x1)+…+M(xn))/n).

Теорема Бернулли. Если в каждом из n независимых испытаний вероятность р появления события А постоянна, то как угодно близка к 1 вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико. limn→∞P(!m/n-p!<ε)=1. Теорема Бернулли утверждает, что при n→∞ относительная частота → по вероятности к р.

Функция распределения вероятностей СВ. Если ДСВ можно задать законом распределения, то НСВ в силу бесконечного набора значений, так задать нельзя. Для задания НСВ вводится функция распределения вероятностей СВ. Пусть х – действительное число. Вероятность события, состоящего в том, что Х примет значений, меньшее х, обозначим через F(х). Если х изменяется, то и F изменяется, т.е. F(x) является функцией от х. Функция распределения вероятностей СВ – функция F(x), определяющая вероятность того, что СВ Х в результате испытания примет значение меньшее х. F(x)=p(X<x), F(x) – интегральная функция. Свойства функции распределения: 1) F(x)?[0;1]. 2) неубывающая, т.е. если x2>x1 => F(x2)>=F(x1). Следствие 1. P(a<=X<=b)=F(b)-F(a). Следствие 2. Вероятность того, что НСВ примет одно определённое значение, равна 0. 3) Если возможные значения СВ ? интервалу (a;b), то F(x)=0 при x<=a и F(x)=1 при x>=b. График функции распределения.

НСВ – СВ, возможное значение которых заполняют конечный или бесконечный интервал. Вне зависимости от того, ДСВ или НСВ, функция распределения имеет вид: F(x)=P(X<x). Для НСВ функция распеределения F(x)=∑XkPk. Та СВ, для которой можно определить неотрицательную функцию распределения F(x)>0 такую, что F(x)=∫-∞xf(y)dy, называется НСВ. Функция f(x) называется плотностью распределения СВ или дифференциальной функцией распределения. Свойства функции распределения: 1) F(x)?[0;1]. 2) F(x) – неубывающая, P(x1<=X<=x2)=F(x2)-F(x1)(1). 3) F(-∞)=0, F(+∞)=1.

Законы распределения НСВ. Равномерный закон распределения, если плотность НСВ постоянна на отрезке [a;b], а вне этого отрезка равна 0. f(x)={1/(b-a), x?[a;b]; 0, x не? [a;b]. X~R[a;b] – НСВ распределена равномерно. График плотности равномерно распределенной СВ. F(x)={(x-a)/(b-a), x?[a;b]; 0, x не?[a;b]. MX=(a+b)/2. DX=(b-a)2/12. P{c<X<d}=(d-c)/(b-a). К СВ, имеющим равномерный закон распределения, относятся время ожидания транспорта, очередь, т.е. это СВ, которые имеют одинаковую вероятность (плотность) и лежат внутри некоторого интервала.

Плотность распределения. Для НСВ интегральная функция распределения определяется через плотность распределения F(x)=∫-∞xf(y)dy. Плотность распределения можно интерпретировать следующим образом: f(x)=limx→0(P(x<=X<=x+∆x)/∆x). Согласно формуле (1) f(x)=limx→0(F(x+∆x)-F(x)/∆x)=F’(x) => f(x)=F’(x). Плотность распределения (дифференциальная функция) – первая производная (если она существует) от функции распределения. f(x)>=0 (т.к. является производной от неубывающей функции).

Вероятностный смысл дифференциальной функции. Из дифференциального исчисления известно, что при достаточно малых ∆х F(x+∆x)-F(x)=f(x)∆x. Вероятностная интерпретация состоит в том, что СВ, принимающая значение, принадлежащее интервалу (х;х+∆х) с некоторой вероятностью, приблизительно равна произведению плотности распределения некоторой точки х?(х;х+∆х) на длину этого интервала. Теорема. Вероятность того, что НСВ принимает значение из интервала (х12) равна интегралу от плотности распределения на этом интервале P(x1<X<x2)=∫x1x2f(x)dx. Свойства плотности распределения. 1) f(x)>=0. 2) ∫-∞+∞f(x)dx=1. В общем случае дифференциальная функция распределения разрывна, но существуют функции, которые не являются разрывными, например, нормальный закон распределения НСВ (закон Гаусса).

Характеристики НСВ. 1) МО MX=∫-∞+∞xf(x)dx. 2) Дисперсия DX=∫-∞+∞[x-MX]2f(x)dx. Для расчетов используется упрощенная формула DX=∫-∞+∞x2f(x)dx-(MX)2. 3) Среднее квадратическое отклонение σX=√DX.

Показательный закон распределения. f(x)={λex, x>=0; 0, x<0, λ – параметр распределения. f(x)={1-ex, x>=0; 0, x<0. MX=σX=1/λ, DX=1/λ2. P{a<=X<=b}=ea-eb. Показательный закон распределения – единственный закон, который обладает свойством отсутствия последействия, т.е. если промежуток времени Т уже длился некоторое время τ, то показательный закон распределения остаётся таким же для оставшегося промежутка (Т-τ).

 

 

Нормальный закон распределения или закон Гаусса. При определённых условиях к нему приближаются все остальные законы распределения НСВ. f(x)=(1/σ√2π)e-!x-a!2/2σ2, x?R, X~N(a;σ). F(x)=∫-∞xf(t)dt=∫-∞x(1/σ√2π)e-!t-a!2/2σ2dt. a=0, σ=1 => нормальный закон называется стандартным. Плотность стандартной величины φ(x)=(1√2π)e-x2/2, Ф(x)=1/√2π∫-∞xe-t2/2dt – функция Лапласа. MX=a, DX=σ2. График плотности распределения. 1) φ(x)>0. 2) ось ох – асимптота (не пересекает). 3) Максимум в точке а=1/σ√2π. 4) Симметрия относительно оси х=а. Данная кривая называется нормальной кривой или кривой Гаусса. Площадь, ограниченная кривой распределения, равна 1. С возрастанием σ кривая становится более пологой и растягивается вдоль оси ох (S=const). Нормальному закону подчиняются ошибки измерений, величины износа деталей, рост человека, колебания акций. P{α<X<β}=Ф((β-a)/σ)-Ф((α-a)/σ).

Правило трёх σ. На практике часто приходится определять попадание СВ в интервал, симметричный относительно центра распределения а. (a-l;a+l), длина интервала 2l. P{a-l<X<a+l}=P{!x-a!<l}=Ф(a+l-a/σ)-Ф(a-l-a/σ)=2Ф(l/σ), l=3σ, P{!x-a!}<3σ. 2Ф(l/σ)=2Ф(3σ/σ)=2Ф(3)=2*0,4986=0,9973. P{!x-a!}<3σ=0,9973. Практически достоверно, что СВ принимает значение (a-3σ;a+3σ).

Понятие о системе СВ. При изучении СВ часто приходится сталкиваться с задачами, в которых результат опыта описан не одной, а несколькими СВ, образующими комплекс или систему. Упорядоченный набор (Х1, Х2 …, Хn) CB Xi, где i?(1;n), называется n-мерной СВ или системой. Упорядоченная пара чисел (Х;Y) называется двумерной СВ. Можно пользоваться геометрической интерпретацией системы (случайная точка на плоскости оху). Системы СВ могут быть непрерывными, дискретными и смешанными. Полной характеристикой системы является закон её распределения. Pij=P{X=Xi;Y=Yj}, ∑i=1nj=1mPij=1. Зная закон распределения двумерной СВ можно определить закон распределения составляющих компонент.

Функция распределения двумерной СВ. Функция распределения является универсальной формой задания распределения двумерной СВ (она же интегральная). Функция распределения системы СВ (Х;Y) – вероятность совместного выполнения двух условий: X<x, Y<y. F(X;Y)=P{X<x;Y<y}. Геометрически это интерпретируется как вероятность попадания случайной точки в бесконечный квадрат с вершиной в т.(X;Y).

Свойства функции распределения двумерной СВ. 1) Ограничена [0;1]. 2) Не убывает по каждому из своих аргументов при фиксированном другом F(X2;Y)>=F(X1;Y), X2>X1. 3) Если хотя бы один из аргументов обращается в -∞, то функция распределения равна 0 F(X;-∞)=F(-∞;X)=F(-∞;-∞)=0. 4) Если оба аргумента обращаются в +∞, то функция распределения равна 1 F(+∞;+∞)=1. 5) Если один из аргументов обращается в +∞, то функция распределения СВ становится соответствующей другому аргументу F(X;+∞)=F1(X); F(+∞;Y)=F2(Y). 6) F(X;Y) непрерывна слева по каждому из своих аргументов limxx0-0F(X;Y)=F(X0;Y0), limyy0-0F(X;Y)=F2(Y).

Плотность распределения вероятностей двумерной СВ – вторая смешанная производная от функции распределения f(x;y)=∂2F(X;Y)/∂x∂y=F”xy(X;Y). Плотность распределения есть предел отношения вероятности попадания случайной точки (X;Y) в элементарный прямоугольник со сторонами ∆х и ∆у, примыкающий к точке (X;Y), к площади этого прямоугольника, когда ∆х, ∆у→0. Геометрически плотность распределения системы двух СВ представляет собой некоторую поверхность распределения. Свойства плотности распределения вероятностей. 1) f(x;y)>=0. 2) Вероятность попадания случайной точки (X;Y) в область D вычисляется по формуле P{(X;Y)?D}=∫∫Df(x;y)dxdy. 3) F(X;Y)=∫-∞x-∞yf(x;y)dxdy. 4) ∫-∞+∞-∞+∞f(x;y)dxdy=1. 5) Плотность распределения одномерных составляющий ∫-∞+∞f(x;y)dy=f(x), ∫-∞+∞f(x;y)dx=f(y).

Зависимость и независимость двух СВ. Независимые СВ, если закон распределения каждой из них не зависит от того, какие значения принимает другая. В противном случае они называются зависимыми. Независимые, когда независимыми событиями являются X;Y. Условие независимости. Теорема. Для того, чтобы СВ X, Y были независимыми, необходимо и достаточно, чтобы функция распределения системы была равна произведению функций составляющих F(X;Y)=F1(X)F2(Y). Необходимое и достаточное условие независимости двух НСВ, образующих систему f(x;y)=f1(x)f2(y). Необходимое и достаточное условие независимости двух ДСВ, образующих систему P{X=Xi;Y=Yi}=P{X=Xi}P{Y=Yi}. Понятие независимости несколько отличается от понятия зависимости в математике. Здесь используется вероятностный принцип зависимости величин (нельзя точно указать значение Y, можно только указать закон её распределения). Часто эта зависимость задаётся эмпирической формулой.

Законы распределения. Двумерное нормальное распределение. Двумерная СВ называется распределённой по нормальному закону, если совместная плотность распределения имеет вид: f(x;y)=(1/2πσxσy√(1-r2))e(-1/2(1-r2))[(x-mx)2/σx2-2r(x-mx)(y-myxσy+(y-my)2/σy2], где mx, my, σx, σy, r – параметры. Это двумерное нормальное распределение, или распределение на плотности, т.е. функция плотности определяется заданием числовых характеристик, которые можно определить на практике. График плотности имеет вид… f1(x)=(1/σ√2π)e-(x-mx)2/2σx2 – кривая Гаусса. Если сделать сечение, параллельными плоскостями оху, то проекцией окажется эллипс, который называется эллипсом рассеяния. (mx;my) – центр эллипса. После приведения к каноническому виду, уравнение эллипса имеет вид: (x-mx)2/(hσx)2-(y-my)2/(hσy)2=1, h2=-2(1-r2)ln(2πz0σxσy√(1-r2)), z0=be-a(x-mx)2. Если СВ независимы, то вероятность попадания точки (X;Y), распределённой по нормальному закону R={a<=X<=b,c<=Y<=d}, равна P{a<=X<=b,c<=Y<=d}=(Ф0((b-mx)/σx)-Ф0((a-mx)/σx))*(Ф0((c-my)/σy)-Ф0((d-my)/σy)), Ф0 – функция Лапласа.

Корреляционный момент. Особую роль играет центральный момент 2го порядка: μk,s=M(X-mx)(Y-my)=MX°Y° называемый корреляционным моментом или моментом связи. Корреляционный момент или ковариация двух СВ (X;Y) – МО произведения отклонения этих СВ от их МО: Kxy=cov(X;Y)=M[(X-mx)(Y-my)]=MX°Y°. Если (X;Y) ДСВ, то Kxy=∑i=1nj=1m(X-mx)(Y-my)Pij. Если (X;Y) НСВ, то Kxy=∫-∞+∞-∞+∞(X-mx)(Y-my)f(x;y)dxdy. Однако ковариацию легче вычислять через МО: Kxy=MXY-MX*MY. Свойства ковариации. 1) Симметрична Kxy=Kyx. 2) Дисперсия СВ есть ковариация её самой Kyy=DY. 3) Если СВ независимы, то Kxy=0. 4) Дисперсия суммы и разности двух СВ равна D(X±Y)=DX+DY±2Kxy. 5) Постоянный множитель можно выносить за знак ковариации Kcxy=CKxy. 6) Ковариация не изменится, если к одной из СВ или к обеим сразу прибавить постоянную Kx+c,y=Kxy=Kx,y+c=Kx+c,y+c. 7) Не превосходит по модулю произведение средних квадратических отклонений !Kxy!<=σxσy. СВ, для которых корреляция не равна 0, называют коррелированными. В противном случае – некоррелированными. Ковариация характеризует степень зависимости СВ и их рассеяние вокруг точки с координатами (mx;my). Размерность ковариации равна произведению размерностей СВ X, Y.

Коэффициент корреляции. В качестве числовой характеристики зависимости СВ берут безразмерную величину – коэффициент корреляции, который является оценкой влияния одной величины на другую. rxy=Kxyxσy=Kxy/√DX√DY. Свойства коэффициента корреляции. 1) По абсолютной величине не превосходит 1: -1<=rxy<=1. 2) Если коэффициенты Х и Y независимы, то rxy=0. 3) Если СВ связаны линейной зависимостью Y=αX+b, то !rxy!=1; при α>0 rxy=1, при α<0 rxy=-1. 4) Если !rxy!=1, то СВ связаны линейной функциональной зависимостью Y=αX+b. Для независимых СВ rxy=0, для линейно зависимых СВ !rxy!=1, для остальных случаев rxy?(-1;1). Корреляционный момент задают матрицей (Kxx Kxy; Kyx Kyy).

Регрессия. При изучении двумерной СВ часто рассматриваются числовые характеристики условного распределения. Условным МО одной СВ, входящей в систему, называется её МО, вычисленное при условии, что другая СВ приняла определённое значение. M(X!Y), M(Y!X). Для ДСВ M(Y!Xi)=∑j=1myiP(Yi!Xi), M(X!Yi)=∑i=1nxiP(Xi!Yi). Для НСВ M(Y!X)=∫-∞+∞yf(Y!X)dy, M(X!Y)=∫-∞+∞xf(X!Y)dx. Условное МО СВ Y при заданном значении Х=х называется регрессией Y на Х. Графики этих функций называются линиями регрессии. Если обе функции Y на Х и Х на Y линейны, то говорят, что СВ связаны корреляционной зависимостью. Если двумерная СВ распределена по нормальному закону, то СВ Х и Y связаны линейной корреляционной зависимостью – теорема о нормальной корреляции.

или к (M(x1)+…+M(xn))/n).

 



2018-06-29 335 Обсуждений (0)
Числовые характеристики случайных величин. 0.00 из 5.00 0 оценок









Обсуждение в статье: Числовые характеристики случайных величин.

Обсуждений еще не было, будьте первым... ↓↓↓

Отправить сообщение

Популярное:
Почему человек чувствует себя несчастным?: Для начала определим, что такое несчастье. Несчастьем мы будем считать психологическое состояние...
Как вы ведете себя при стрессе?: Вы можете самостоятельно управлять стрессом! Каждый из нас имеет право и возможность уменьшить его воздействие на нас...



©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (335)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.01 сек.)