Главная | Регистрация | Вход Приветствую Вас Гость | RSS
Меню сайта
Мини-чат
Наш опрос
Оцените мой сайт


Ответов: 682



   
[ Новые сообщения · Участники · Правила форума · Поиск · RSS ]
  • Страница 1 из 1
  • 1
Форум » Беседка » Беседка » теории вероятностей
теории вероятностей
boWizДата: Четверг, 17.06.2010, 10:08 | Сообщение # 1
Античитер
Группа: Администраторы
Сообщений: 1
Репутация: 0 []
Бог сайта и форума

Статус: Offline
У вас
Событие. Вероятность события
Событие – всякий факт, который может произойти или не произойти в результате опыта.
Каждое из событий обладает степенью возможности. Чтобы количественно сравнивать между собой события по степени их возможности, нужно с каждым событием связать определенное число, которое тем больше, чем более возможным является событие.
Вероятность события – численная мера его объективной возможности.
При введении понятия вероятности мы связываем с ним определенный практический смысл, а именно: на основании опыта мы считаем более вероятными те события, которые происходят чаще; менее вероятными – те события, которые происходят реже; мало вероятными – те, которые почти никогда не происходят. Таким образом, понятие вероятности события в самой своей основе связано с опытным, практическим понятием частоты события.
Достоверное событие – событие, которое в результате опыта не может не произойти:
P(Ω) = 1.
Невозможное событие – событие, которое в результате опыта не может произойти:
P(Ø) = 0.

Непосредственный подсчет вероятностей. Схема случая
Существует целый класс опытов, для которых вероятности их возможных исходов легко оценить непосредственно из условий самого опыта. Для этого различные исходы опыта должны обладать симметрией и в силу этого быть одинаково возможными. Например, для опыта, состоящего в подбрасывании игральной кости, в силу симметричности всех граней вероятность выпадения какой-либо грани равна 1/6.
Полная группа событий – группа событий, хотя бы одно из которых непременно должно произойти в результате опыта.
Несовместные события – события, никакие два из которых не могут появиться вместе в данном опыте.
Равновозможные события – события, ни одно из которых не является объективно более возможным, чем другое, в силу симметричности опыта.
Если группа событий обладает всеми тремя вышеперечисленными свойствами, то ее называют группой случаев, а сами события – случаями, или шансами.
Случай, благоприятствующий событию, – случай, появление которого влечет за собой появление этого события.
Если опыт сводится к схеме случаев, то вероятность события можно оценить по относительной доле благоприятных случаев из общего числа случаев:
P(A)=k/n,
где n – общее число случаев, k – число благоприятных случаев; 0 ≤ k ≤ n, 0 ≤ P(A) ≤ 1.

Действия над событиями
Объединение, или сумма, событий A и B – сложное событие C, состоящее в появлении хотя бы одного из этих событий: C=A∪B.
Пересечение, или произведение, событий A и B – сложное событие C, состоящее в совместном появлении этих событий: C=A∩B.
Событие, противоположное событию A, – событие A ̅, состоящее в непоявлении события A.
Противоположные события несовместны, а их объединение представляет собой достоверное событие.
A∩A ̅=Ω
A∪∅=A
A∩∅=A
A∪Ω=Ω
A∩Ω=A
Свойства действий над событиями:
1. Событие A ̅∪B ̅ противоположно событию AB, т. е. A ̅∪B ̅=(AB) ̅. Действительно, A ̅∪B ̅ равноценно появлению одного из событий A ̅ и B ̅, что противоположно событию AB.
2. Событие A ̅∩B ̅ представляет одновременное появление событий A ̅ и B ̅, что противоположно появлению хотя бы одного из событий A и B (A ̅∩B ̅=(A∪B) ̅).

Аксиомы теории вероятностей:
1. Каждому событию A из некоторого пространства событий соответствует неотрицательное число – вероятность P(A) этого события.
2. Вероятность достоверного события равна единице.
3. Вероятность объединения несовместных событий равна сумме их вероятностей:
P(∑_(i=1)^n▒A_i )=∑_(i=1)^n▒〖P(A_i)〗

Свойства вероятностей, вытекающие из аксиом
Так как невозможное событие несовместно с любым другим событием A, то по третьей аксиоме P(A∪∅). С другой стороны, A∪∅=A, то есть P(A∪∅)=P(A)⟹P(∅)=0.
Если событие B принадлежит событию A, то есть событие B является подсобытием события A, то A=B+(AB) ̅, P(A)=P(B)+P((AB) ̅). Таким образом, если событие B может произойти только с событием A, то вероятность P(B) не может превышать вероятности P(A), а так как любое событие A может произойти только с достоверным событием Ω, то никакое событие не может иметь вероятность, превышающую вероятность достоверного события. Таким образом, вероятность любого события лежит в пределах от нуля до единицы.

Вероятности сложных событий
Вероятности сумм независимых и несовместных событий вычисляются по третьей аксиоме: P(∑_(i=1)^n▒A_i )=∑_(i=1)^n▒〖P(A_i)〗. Для полной группы событий справедливо равенство ∑_(i=1)^n▒〖P(A_i)〗=1, так как в результате опыта непременно должно произойти хотя бы одно из событий.
Противоположные события образуют полную группу: P(A)+P(A ̅ )=1.
Вероятность прямого события – p, противоположного – q; p+q = 1.
При полной группе m несовместных и равновероятных событий вероятность появления каждого из них равна 1/m.

Теорема сложения вероятностей для совместных событий:
A∪B=A+B-AB;
P(A∪B)=P(A)+P(B)-P(AB).
Независимые события – события, появление одного из которых не изменяет вероятности появления других.
Зависимые события – события, появление одного из которых изменяет вероятность появления других.
Условная вероятность – вероятность одного из зависимых событий, вычисленная при условии, что остальные события произошли: P(A)B1, B2, …, Bk.
Безусловная вероятность – вероятность одного из зависимых событий, вычисленная без принятия во внимание остальных событий.
Согласно определению, событие A не зависит от события B, если P(A/B) = P(A).
Теорема умножения вероятностей для совместных событий: условная вероятность события B при условии, что событие A произошло, равна
P(AB) = P(A)∙P(B/A).
Следствие 1: если событие A не зависит от события B, то и B не зависит от A.
Доказательство: если событие A не зависит от B, то P(A) = P(A/B). P(A) ≠ 0.
P(AB) = P(A)∙P(B/A), P(AB) = P(B)∙P(A/B)
P(A)∙P(B/A) = P(B)∙P(A/B)
P(A)∙P(B/A) = P(B)P(A)
P(B/A) = P(B)
Следствие 2: вероятность произведения двух независимых событий равна произведению их вероятностей.

Формула полной вероятности
Во многих реальных ситуациях то или иное событие A может произойти лишь как случайное следствие одного из несовместных событий H1, H2, …, Hn, которые входят в некоторую полную группу событий и называются гипотезами. При этом термин «случайное следствие» означает, что каждая из гипотез H1, H2, …, Hn может повлечь за собой не только исход A, но и какие-то другие исходы. Предполагается, что вероятности гипотез P(H1), P(H2), …, P(Hn) известны. Известны также и условные вероятности события A относительно каждой из гипотез: P(A/H1), P(A/H2), …, P(A/Hn).
Ставится задача определить безусловную вероятность события A, при вычислении которой принимаются во внимание все случаи появления события A. Событие A появляется тогда и только тогда, когда осуществляются события AH1, AH2, …, AHn.
P(A)=P(AH_1 )+P(AH_2 )+...+P(AH_n )=P(H_1 )P(A/H_1 )+P(H_2 )P(A/H_2 )+...+P(H_n )P(A/H_n )=∑_(i=1)^n▒〖P(H_i )P(A/H_i)〗

Формула Байеса (теорема гипотез)
Пусть интересующее нас событие A может появиться лишь как случайное следствие одной из несовместных гипотез H1, H2, …, Hn, образующих полную группу событий. Вероятности гипотез P(Hi) и условная вероятность события A при этих гипотезах P(A/Hi) известны. Пусть проведено испытание, и результатом его явилось появление события A. Спрашивается, с какой из гипотез следует связать появление события A. Ответ не может быть дан в детерминистской форме и тоже будет вероятностным. Для решения необходимо вычислить условную вероятность каждой гипотезы при условии, что событие A произошло. И той из гипотез, которая будет иметь наибольшую вероятность P(Hi/A), следует отдать предпочтение.
P(AHi) = P(Hi)P(A/Hi) = P(A)P(Hi/A)
P(H_i/A)=(P(H_i )P(A/H_i))/(P(A))=(P(H_i )P(A/H_i))/(∑_(i=1)^n▒〖P(H_i )P(A/H_i)〗)

Вероятностные расчеты при многократных испытаниях
В тех случаях, когда число опытов достаточно велико, пользование формулами основных теорем встречает число вычислительные затруднения. Основные законы при многократных испытаниях позволяет решать задачи более простыми средствами.
Рассмотрим следующие задачи:
1. Производится m испытаний, в результате каждого из которых может наступить событие A. Нужно найти вероятность того, что событие A произойдет ровно k раз. Результаты решения этой задачи называются частной теоремой многократных испытаний, или формулой Бернулли.
2. Производится m испытаний, в результате каждого из которых может наступить событие A с неодинаковыми вероятностями P1, P2, …, Pm. Найти вероятность того, что событие A произойдет k раз. Решение этой задачи называется общей теоремой многократных испытаний.
3. Производится m испытаний, в результате каждого из которых может наступить только одно из событий A1, A2, …, Am с вероятностями P1, P2, …, Pm. Нужно найти вероятности того, что Ai произойдет k¬i ра第¬, событие Aj – kj раз и т. д. Это обобщенная теорема повторения опытов.
Проводится m испытаний, в результате каждого из которых может наступить событие A с вероятностью p или событие A ̅ с вероятностью 1 – p = q. Вероятность того, что событие A при m испытаниях произойдет k раз, определится возможным сочетанием благоприятных исходов. В любом таком сочетании должно иметь место k раз событие A и m–k - событие A ̅.
Вероятность одного такого сочетания равна pk∙qm–k. Общее число таких сочетаний определяется числом сочетаний из m элементов по k.
Формула Бернулли:
Pm(k) = Cmk∙pk∙qm–k
Вероятность того, что событие A не произойдет ни разу: Pm(0) = Cm0∙p0∙qm–0 = qm.
Вероятность того, что событие A произойдет все m раз: Pm(0) = Cmm∙pm∙qm–m = pm.
Очевидно, что ∑_(k=0)^m▒〖P_m (k)〗=1, так как при проведении m испытаний одно какое-либо сочетание будет иметь место: либо не произойдет ни одного события A, либо оно произойдет 1 раз, k раз, все m раз.
Вероятности Pm(k), рассчитанные по формуле Бернулли, являются коэффициентами при k-й степени x-разложения бинома φ_m (x)=〖(q+px)〗^m.
Производящая функция:
φ_m (x)=∑_(k=0)^m▒C_m^k p^k q^(m-k) x^k
Приведенные общие формулы, определяющие вероятность того, что событие A произойдет k раз в m испытаниях, позволяют составить диапазонные формулы, определяющие вероятность того, что событие A произойдет такое количество раз, которое лежит в границах от k1 до k2. Таким образом, k1 ≤ k ≤ k2:
P_m (k_1≤k≤k_2 )=∑_(k=k_1)^(k_2)▒〖C_m^k C_m^k p^k q^(m-k) 〗
Если k1 = 0, то можно рассчитать вероятность того, что событие A в m испытаниях произойдет не более k2 раз:
P_m (k≤k_2 )=∑_(k=0)^(k_2)▒〖C_m^k p^k q^(m-k) 〗
Если k2 = m, то можно рассчитать вероятность того, что событие A в m испытаниях произойдет не менее k1 раз:
P_m (k≥k_1 )=∑_(k=k_1)^m▒〖C_m^k p^k q^(m-k) 〗
Наивероятнейшее число событий km – число, при котором вероятность Pm(k) достигает максимума km¬ = E[(m+1)p]. Символ E означает, что от числа, заключенного в скобках, берется целая часть без округления.

Локальная и интегральная теоремы Лапласа
Локальная теорема Лапласа: вероятность того, что в k независимых испытаниях, в каждом из которых вероятность события равна p (0 < p < 1), событие наступит ровно k раз, безразлично, в какой последовательности, равна
P_n (k)=1/√npq φ(x)
φ(x)=1/√2π e^(-x^2/2)
x= (k-np)/√npq
Таблица значений функции φ(x) при x > 0 приведена в задачнике Гмурмана (приложение 1). Для отрицательных значений x пользуются той же формулой, так как функция φ(x) является четной. Формула Лапласа применяется, когда проводятся сотни опытов.

Интегральная теорема Лапласа: вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна p (0 < p < 1), событие наступит не менее k1 раз и не более k2 раз, приближенно равна
P_n (k_1,k_2 )=Φ(x^'' )-Φ(x^')
Φ(x)=1/√2π ∫_0^x▒〖e^(-x^2/2) dx〗 (функция Лапласа)
x'= (k_1-np)/√npq
x''= (k_2-np)/√npq
Таблица значений функции Лапласа для значений 0 < x < 5 приведена в задачнике Гмурмана (приложение 2). Для значений x ≥ 5 Φ(x) = 0,5. Для x < 0 пользуются свойствами нечетности функции Лапласа.

Случайные величины
Разные исходы случайного опыта имеют разную значимость, поэтому целесообразно оценивать исход некоторой величиной.
Случайная величина – величина, которая в результате опыта принимает то или иное значение, непредугадываемая.
Примеры случайных величин:
1) число очков, выпадающих при бросании игральной кости;
2) число искажений в кодовой комбинации;
3) число выстрелов до первого попадания при стрельбе по мишени;
4) время безотказной работы некоторого устройства.
В первых трех примерах случайная величина является дискретной, а в последнем – непрерывной.
Множество значений, которые может принимать величина в первом и втором примерах, конечно, а в третьем и четвертом – бесконечно. Бесконечное множество может быть счетным, как в третьем примере, или несчетным, как в четвертом примере.

Закон распределения дискретной случайной величины
Для описания случайной величины нужно указать ее возможные значения, однако характер случайной величины простым перечислением ее возможных значений не определить. Необходимо знать, насколько часто будет осуществляться одни значения и насколько редко – другие или насколько вероятно наступление одних или иных значений случайной величины.
Закон распределения случайной величины – соотношение, устанавливающее связь между возможными значениями дискретной случайной величины и их вероятностями.
Обозначим случайную величину через X, ее возможные значения через xi, а их вероятности через pi. Тогда закон распределения дискретной случайной величины можно задать рядом распределения:
xi x1 x2 x3 x4
pi p1 p2 p3 p4
Заметим, что если n – число возможных значений случайной величины, то ∑_(i=1)^n▒p_i =1 (условие нормировки закона распределения).

Функция распределения случайной величины
Понятие закона распределения утрачивает свой смысл для непрерывных случайных величин.
Универсальной характеристикой, одинаково пригодной как для дискретных, так и для непрерывных случайных величин, является функция распределения.
Функция распределения, или интегральный закон распределения, – вероятность того, что случайная величина X принимает значение, меньшее наперед заданного x, то есть из интервала от –∞ до x: F(x) = P(X < x).
Построим график функции распределения для случайной дискретной величины и предположим, что эта величина может принимать только пять значений:
Свойства функции распределения:
1. F(–∞) = 0; это свойство отражает тот факт, что не имеется значений случайной величины x < –∞.
2. F(x) – неубывающая функция; пусть x2 > x1, тогда
P(x1 < x2) = P(x < x1) + P(x1 ≤ x ≤ x2)
F(x2) = F(x1) + P(x1 ≤ x ≤ x2)
F(x2) ≥ F(x1)
3. F(∞) = 1, то есть событие, заключающееся в том, что любое значение случайной величины x < ∞ является достоверным.
Все рассуждения о функции распределения справедливы и для непрерывных случайных величин. У непрерывной случайной величины функция распределения либо непрерывна, либо имеет точку разрыва первого рода и непрерывные участки возрастания функции. Всякая функция распределения имеет еще одно свойство, которое является особенно важным для непрерывных случайных величин.
4. P(x1 ≤ x ≤ x2) = F(x2) – F(x1)
Пример графика непрерывной функции

Плотность вероятности
Попытаемся найти такую характеристику непрерывной случайной величины, которая позволила бы судить, насколько одно значение случайной величины более вероятно, чем другие. Для дискретной случайной величины такой характеристикой является закон распределения. Так как вероятность какого-либо конкретного значения непрерывной случайной величины равна нулю, рассмотрим малый интервал, включающий в себя интересующее нас значение x, а затем устремим длину интервала к нулю. Полагая, что функция распределения дифференцируема, и применяя к правой части соотношения P(x1 ≤ x ≤ x2) = F(x2) – F(x1) теорему Лагранжа, получим P(x ≤ X ≤ x+Δx) = F’(x+Θ∙Δx)∙Δx, где Θ – число, заключенное между нулем и единицей. При заданном Δx вероятность попадания непрерывной случайной функции на отрезок [x;x+Δx] тем больше, чем больше значение производной F’ в точке x+Θ∙Δx.
Таким образом, производная F’ может служить искомой характеристикой. Перейдем к пределу при Δx→0 и получим дифференциальный закон распределения:
dP = F’(x)dx
f(x)=(dF(x))/dx
Производная F’(x) – плотность вероятности.
Плотность вероятности случайной величины X – функция f(x), которая, будучи умноженной на малую величину Δx, дает вероятность попадания случайной величины в интервал от x до x+Δx.
Свойства плотности вероятности:
1. Плотность вероятности неотрицательна, так как f(x) является производной функции распределения, которая имеет неубывающий характер. Функция распределения и плотность вероятности связаны между собой соотношением
F(x)=∫_(-∞)^x▒〖f(x)〗 dx.
Вероятность попадания случайной величины X на отрезок [x1;x2] равна интегралу от плотности вероятности в этих пределах.
P(x_1≤X≤x_2 )=∫_(x_1)^(x_2)▒〖f(x)〗 dx=F(x_2 )-F(x_1)
2. Интеграл от плотности вероятности в бесконечных пределах равен единице. Условие нормировки:
∫_(-∞)^(+∞)▒〖f(x)〗 dx=1.

Числовые характеристики случайных явлений
Математическое ожидание
Иногда полное описание случайной величины при помощи функции распределения может быть заменено более грубым, но зато и более удобным указанием отдельных параметров или числовых характеристик этого распределения.
Для дискретной случайной величины математическое ожидание – это значение, около которого группируются в опытах достаточной длины средние арифметические наблюдаемых значений. Так, если опыт проводится в одних и тех же условиях N раз, причем случайная величина приняла значение x1 m1 раз, x2 – m2 раз, ..., xn – mn раз, причем m1+m2+…+mn = N, то среднее арифметическое можно записать следующим образом:
M_N (x)=(x_1 m_1+x_2 m_2+...+x_n m_n)/N,или
M_N (x)=x_1 m_1/N+x_2 m_2/N+⋯+x_n m_n/N.
В опыте достаточной длины и частоты величины m_1/N,m_2/N,…,m_n/N будут стремиться к вероятностям P1, P2, …, Pn, и тогда можно записать
M(X)=x_1 p_1+x_2 p_2+...+x_n p_n=∑_(i=1)^n▒〖x_i p_i 〗=m_x.

В ряде практических задач необходимо знать математическое ожидание некоторой детерминированной функции от случайной величины φ(x). Такая функция сама является случайной величиной, причем значение φ(x_i ) она будет принимать с той же вероятностью Pi, с какой X принимает значения xi.
Ряд распределения случайной величины:
xi x1 x2 … xn
pi p1 p2 … pn
φ(x_i ) φ(x_1 ) φ(x_2 ) … φ(x_n )

Тогда, пользуясь формулой M(X)=x_1 p_1+x_2 p_2+...+x_n p_n=∑_(i=1)^n▒〖x_i p_i 〗=m_x, можно записать:
M[φ(x) ]=∑_(i=1)^n▒〖φ(x_i ) p_i 〗.
Если φ(x)=C∙x, то
M[φ(x) ]=M[C∙x]=C∙m_x;M[C]=C
Для непрерывных случайных величин
m_x=∫_(-∞)^(+∞)▒x∙f(x)dx.
M[φ(x) ]=∫_(-∞)^(+∞)▒〖φ(x)〗∙f(x)dx
Математическое ожидание алгебраической суммы случайных величин равно алгебраической сумме их математических ожиданий.
Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.
Центрированная случайная величина – случайная величина, значение которой отсчитывается относительно математического ожидания:
X ̇=X-m_x
Математическое ожидание центрированной величины равно нулю:
M[X ̇ ]=M[X]=M[m_x ]=m_x-m_x=0.

Мода и медиана случайной величины
Мода дискретной случайной величины – наиболее вероятное значение этой случайной величины.
Мода непрерывной случайной величины – значение, при котором плотность вероятности этой случайной величины максимальна.
Полимодальное распределение – распределение, многоугольник или прямая которого имеет больше одного максимума.
Антимодальное распределение – распределение с минимумом в середине.
Когда распределение симметрично и модально и существует математическое ожидание, то математическое ожидание совпадает с центром симметрии и модой.
Медиана случайной величины – такое значение случайной величины, что вероятности того, что эта случайная величина окажется больше или меньше этого значения, равны, то есть для которого выполняется равенство
P(X<μ_e )=P(X>μ_e ).
Геометрическая медиана – абсцисса точки, в которой площадь, ограниченная кривой распределения, делится пополам.
Если модальное распределение симметрично, то математическое ожидание, мода и медиана равны между собой.

Моментные характеристики
Начальный момент порядка S дискретной случайной величины X:
α_S [X]=∑_(i=1)^n▒〖x_i^S∙p_i 〗.
Начальный момент порядка S непрерывной случайной величины X:
α_S [X]=∫_(-∞)^(+∞)▒〖x^S f(x)〗 dx.
Математическое ожидание является первым начальным моментом случайной величины X.
Общее определение начальных моментов как дискретных, так и случайных величин может быть записано в виде
α=M[x^S ],
то есть начальным моментом порядка S случайной величины X является математическое ожидание S-й степени этой величины.
Центральный момент S-го порядка случайной величины – математическое ожидание S-й степени соответствующей центрированной случайной величины:
μ_S [x]=M[x ̇^S ].
Первый центральный момент для любой случайной величины равен нулю:
μ_1 [x]=∑_(i=1)^n▒〖(x_i-m_x ) p_i 〗=∑_(i=1)^n▒〖x_i p_i 〗+m_x ∑_(i=1)^n▒p_i =m_x-m_x=0;
μ_1 [x]=∫_(-∞)^(+∞)▒(x-m_x )f(x) dx=∫_(-∞)^(+∞)▒〖x∙f(x) 〗 dx-m_x ∫_(-∞)^(+∞)▒f(x) dx=m_x-m_x=0.
Второй центральный момент непрерывной случайной величины:
μ_2 [x]=M[x ̇^2 ]=∫_(-∞)^(+∞)▒〖(x-m_x )^2 f(x) 〗 dx=∫_(-∞)^(+∞)▒〖x^2∙f(x) 〗 dx-2m_x ∫_(-∞)^(+∞)▒f(x) dx+m_x^2 ∫_(-∞)^(+∞)▒f(x) dx=α_2-2m_x^2+m_x^2=α_2-m_x^2=D_x.
Дисперсия случайной величины, которая характеризует рассеивание, или разбросанность, значений случайной величины около ее математического ожидания. Дисперсия имеет размерность квадрата случайной величины. Для более наглядной характеристики рассеивания удобно пользоваться величиной, размерность которой совпадает с размерностью самой случайной величины. Для этого из дисперсии извлекают квадратный корень. Полученная величина называется среднеквадратическим отклонением (СКО):
σ_x=√(D_x ).

Для более подробного описания распределения используют моменты высших порядков.
Третий центральный момент служит для характеристики асимметричности, или скошенности, распределения. Если распределение симметрично относительно математического ожидания, то все центральные моменты нечетных порядков равны нулю. Действительно, в сумме μ_S=∑_(i=1)^n▒〖(x-m_x )^S∙p_i 〗 при симметричности относительно математического ожидания распределения и нечетном S каждому положительному слагаемому соответствует равное ему по модулю отрицательное слагаемое, то есть вся сумма равна нулю. Это справедливо и для интеграла μ_S=∫_(-∞)^(+∞)▒〖(x-m_x )^S f(x) 〗 dx, который равен нулю как интеграл от нечетной функции в симметричных пределах. Поэтому для характеристики асимметрии выбирают один из нечетных моментов, чаще всего третий.
Третий центральный момент имеет размерность куба случайной величины, и чтобы получить безразмерную характеристику, третий момент делят на третью степень среднеквадратичного отклонения. Полученная величина называется коэффициентом асимметрии:
K_A=μ_3/(σ_x^3 ).
Здесь показано два асимметричных распределения. Первая из них имеет положительную асимметрию, а вторая – отрицательную.
Четвертый центральный момент служит для характеристики крутости, или островершинности. Это свойство распределения описывается с помощью так называемого эксцесса:
ε= μ_4/(σ_x^4 ).
Число 3 вычитается из отклонения μ_4/(σ_x^4 ) потому, что для широко распространенного в природе нормального распределения СКО4 (распределение Гаусса) отношение μ_4/(σ_x^4 ) равно 3, а эксцесс, таким образом, равен нулю.

Закон Пуассона
Случайная величина подчинена закону Пуассона, если вероятность того, что она примет значение m, равна
P_m=a^m/m! e^(-a),m=0,1,2…,
где a – параметр закона Пуассона, некоторая положительная величина.
Ряд распределения случайной величины, подчиненной закону Пуассона:
xm 0 1 2 3 … m …
Pm e–a a∙e–a a^2/2!∙e^(-a) a^3/3!∙e^(-a) … a^m/m!∙e^(-a) …

Сначала убедимся, что последовательность вероятностей, задаваемая соотношением a^m/m!∙e^(-a), представляет собой закон распределения. Для этого сумма вероятностей должна быть равна единице:
∑_(m=0)^∞▒P_m =∑_(m=0)^∞▒〖a^m/m!∙e^(-a) 〗=e^(-a) ∑_(m=0)^∞▒a^m/m!=e^(-a)∙e^a=1.

Математическое ожидание закона Пуассона равно параметру этого закона.
Дисперсия закона тоже равна параметру этого закона.

Нормальный закон распределения (Гаусса)
f(x)=1/(σ√2π) e^(-(x-m)^2/(2σ^2 ))
Докажем, что m – математическое ожидание:
m_x=M[X]=∫_(-∞)^∞▒〖x∙f(x) 〗 dx= 1/(σ√2π)∙∫_(-∞)^∞▒e^(-(x-m)^2/(2σ^2 )) dx=|█((x-m)/(σ√2)=t@x=m+σ√2 t@dx=σ√2 dt)|=1/√π ∫_(-∞)^∞▒〖(σ√2 t+m) e^(-t^2/2) 〗 dt= 1/√π ∫_(-∞)^∞▒〖σ√2 t∙e^(-t^2/2) 〗 dt+ m/√π ∫_(-∞)^∞▒e^(-t^2/2) dt= m/√π √π=m.
Докажем, что σ – среднеквадратическое отклонение нормального закона:
D_x=∫_(-∞)^∞▒〖(x-m)^2 f(x) 〗 dx= 1/(σ√2π)∙∫_(-∞)^∞▒〖(x-m)^2 e^(-(x-m)^2/(2σ^2 )) 〗 dx=|█((x-m)/(σ√2)=t@x=m+σ√2 t@dx=σ√2 dt)|=(2σ^2 σ√2)/(σ√2π) ∫_(-∞)^∞▒〖t^2 e^(-t^2 ) 〗 dt= σ^2/√π ∫_(-∞)^∞▒〖2t∙t∙e^(-t^2 ) 〗 dt
=σ^2/√π (├ -t∙e^(-t) ┤|_(-∞)^∞+∫_(-∞)^∞▒e^(-t^2 ) dt)=σ^2.

Моменты нормального распределения
Выведем общие формулы для центральных моментов нормального распределения:
μ_S=∫_(-∞)^∞▒〖(x-m)^S f(x) 〗 dx= 1/(σ√2π)∙∫_(-∞)^∞▒〖(x-m)^S e^(-(x-m)^2/(2σ^2 )) 〗 dx=|█((x-m)/(σ√2)=t@x=m+σ√2 t@dx=σ√2 dt)|=(σ√2)^S/(σ√2π) ∫_(-∞)^∞▒〖t^S e^(-t^2 ) 〗 dt= (σ√2)^S/(σ√2π) ∫_(-∞)^∞▒〖t^(S-1)∙t∙e^(-t^2 ) 〗 dt=
(σ√2)^S/(σ√2π) (├ -1/2 t^(S-1)∙e^(-t^2 ) ┤|_(-∞)^∞+(S-1)/2 ∫_(-∞)^∞▒〖t^(S-2) e^(-t^2 ) 〗 dt)=(σ√2)^S/√π ∫_(-∞)^∞▒〖t^(S-2) e^(-t^2 ) 〗 dt.
μ_(S-2)=(σ√2)^(S-2)/√π ∫_(-∞)^∞▒〖t^(S-2) e^(-t^2 ) 〗 dt.
Рекуррентная формула для определения центральных моментов распределения любых порядков:
μ_S=(S-1) σ^2 μ_(S-2).

Характеристическая функция случайной величины
Характеристическая функция случайной величины – функция, численно равная математическому ожиданию от ejux:
φ_x (u)=M[e^jux ],-∞<u<∞.
Характеристическая функция является преобразованием Фурье от плотности вероятности:
φ_x (u)=∫_(-∞)^∞▒〖f(x) e^jux 〗 dx.
Плотность вероятности:
f(x)=1/2π ∫_(-∞)^∞▒〖φ_x (u) e^(-jux) 〗 dx.
Плотность вероятности и характеристическая функция составляют пару преобразований Фурье; таким образом, характеристическая функция является столь же исчерпывающей характеристикой случайной величины, как и плотность вероятности.
e^jux=cos⁡ux+j∙sin⁡ux⟹φ_x (u)=∫_(-∞)^∞▒〖f(x) cos⁡ux 〗 dx+j∫_(-∞)^∞▒〖f(x) sin⁡ux 〗 dx=√(Re^2 φ_x (u)+Im^2 φ_x (u) )∙exp⁡[arctg (Imφ_x (u))/(Reφ_x (u) )].
Свойства характеристической функции:
1. φ_x (0)=1.
2. φ_x (0)≤1 при любом аргументе.

x=m_x+x ̇
φ_x (u)=M[e^ju(x ̇+m_x ) ]=e^(jum_x ) M[e^(jux ̇ ) ]=e^(jum_x )∙φ_x ̇ (u)
φ_x^' (u)=M[jx∙e^jux ]
φ_x^((k)) (u)=M[〖(jx)〗^k∙e^jux ]
φ_x^((k)) (0)=M[j^k x^k ]=j^k M[x^k ]=j^k α_k⟹α_k=(φ_x^((k)) (0))/j^k
Таким образом может быть определен начальный момент любого порядка:
μ_k=(φ_x ̇^((k)) (0))/j^k .

Описание свойств системы двух случайных величин
Исчерпывающей характеристикой системы случайных величин X и Y является их двумерный закон распределения. Так же, как и в случае одной случайной величины, различают интегральный и дифференциальный законы распределения.

Интегральный закон распределения
Этот закон задается с помощью функции совместного распределения:
F(x,y)=P{(X,x),(Y,y)}.
0≤F(x,y)≤1
F(∞,∞)=1
F(∞,y)=F(y)
F(x,∞)=F(x)
F(x,y)=F(x)∙F(y/x)=F(y)∙F(x/y)
Различают два типа величин, входящих в систему: зависимые и независимые.
Независимая величина – величина, условная функция распределения которой равна безусловной: F(x/y) = F(y), F(x/y) = F(x).
Если любое из этих условий не выполняется, то величина, входящая в систему, – зависимая, и для нее выполняется условие F(x,y) = F(x)∙F(y).

Дифференциальный закон распределения
Этот закон описывается так называемой плотностью совместного распределения, или двумерной плотностью вероятности, которая представляет собой вторую частную смешанную производную функции распределения по каждому из аргументов:
f(x,y)=(∂^2 F(x,y))/∂x∂y.

Свойства плотности совместного распределения
1. f(x,y) ≥ 0.
2. Плотность распределения связана с функцией распределения формулой
F(x,y)=∫_(-∞)^x▒〖∫_(-∞)^y▒f(x,y) dy〗 dx.
F(∞,y)=∫_(-∞)^∞▒〖∫_(-∞)^y▒f(x,y) dy〗 dx=∫_(-∞)^y▒〖∫_(-∞)^∞▒f(x,y) dx〗 dy=F(y)
Для зависимых величин f(x,y)=f(x)f(y/x)=f(y)f(x/y).
Для независимых величин f(x,y) = f(x)∙f(y).

Приближенное описание свойств системы двух случайных величин
Для описания свойств будем использовать различные числовые характеристики: начальные моменты αk(x) и αk(y), центральные моменты μk(x) и μk(y), а также смешанные моменты, которые также подразделяются на начальные и центральные.
Начальный смешанный момент порядка k+s:
α_(k,s) [x,y]=M[x^k,y^s ]=∫_(-∞)^∞▒〖∫_(-∞)^∞▒〖x^k∙y^s 〗∙f(x,y) 〗 dxdy.
Центральные смешанные моменты:
μ_(k,s)=M[x ̇^k,y ̇^s ]=∫_(-∞)^∞▒〖∫_(-∞)^∞▒〖(x-m_x )^k∙(y-m_x )^s 〗∙f(x,y) 〗 dxdy.
Будем рассматривать только те центральные моменты, порядок которых k+s ≥ 2. Момент μ00 не информативен, так как всегда равен единице; моменты μ10 и μ01 всегда равны нулю и поэтому также неинформативны.
μ_2,0=μ_2 [x]=D_x
μ_0,2=μ_2 [y]=D_y
Корреляционный момент:
μ_1,1=M[x ̇,y ̇ ]=M[(x-m_x )(y-m_x)]=M[x,y]-m_x M[x]-m_x M[y]+m_x m_y=α_1,1-m_x m_y=R_xy.

Системы произвольного числа двух случайных величин
Имеем систему N случайных величин: (x1, x2, ..., xN); F(x1, x2, ..., xN) = P[()]???
Эта величина неотрицательная, изменяющаяся от

Математическая статистика
Математическая статистика – раздел математики, посвященный установлению закономерностей случайных процессов или явлений на основании регистрации, систематизации и обработки результатов измерений и наблюдений.
Основные задачи математической статистики:
1. Оценка неизвестных функций распределения или плотностей вероятности. Пусть в результате наблюдений получены значения случайной величины x1, x2, …, xn. Требуется определить F(x) или f(x). Эта задача распространяется и на многомерные процессы.
2. Оценка неизвестных параметров закона распределения. Пусть на основе каких-либо соображений можно заключить, что случайная величина X имеет закон распределения определенного вида и зависит от нескольких параметров. На основании наблюдения X требуется определить значения этих параметров. Эту задачу можно решить и вне связи с законом распределения. Искомыми параметрами могут быть математическое ожидание, дисперсия, моменты.
3. Статистическая проверка гипотез. Заранее предполагается, что закон распределения имеет определенный вид

Выравнивание статистических рядов
Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с тем, что число наблюдений ограничено, что проведены именно эти, а не другие исследования, которые дали именно эти результаты. Поэтому при обработке статистического материала часто приходится решать вопрос о том, какую теоретическую кривую следует подобрать для данного статистического ряда, с тем чтобы она отображала наиболее существенные черты статистического материала, но не случайности, связанные с ограниченным объемом экспериментальных данных. Такая задача называется сглаживанием, или выравниванием, статистических рядов и заключается в том, чтобы подобрать теоретическую кривую распределения наилучшим образом с некоторой точки зрения, описывающую данное статистическое распределение.
Вопрос о том, в каком классе функций следует искать наилучшее приближение, решается не из статистических соображений, а из соображений, связанных с физикой решаемой задачи. При выравнивании статистических рядов принципиальный вид теоретической кривой выбирается заранее из соображений, связанных с существом задачи, а в некоторых случаях просто с внешним видом статистического распределения.
Аналитическое выражение выбранной кривой распределения зависит от нескольких параметров, и задача выравнивания переходит в задачу рационального выбора тех значений параметра, при которых соответствие между статистическим и теоретическим распределениями оказывается наилучшим.
Предположим, что исследуемая величина x есть ошибка измерения, возникающая в результате воздействия множества элементарных ошибок. Тогда из теоретических соображений можно считать, что случайная величина подчиняется нормальному закону:
f(x)=1/(σ√2π) e^((-〖(x-m_x)〗^2)/(2σ^2 )),
и задача выравнивания переходит в задачу рационального выбора mx и σ. Иногда становится известно, что величина x распределена статистически равномерно на некотором интервале. Тогда можно поставить задачу о рациональном выборе параметров закона распределения равномерной плотности:
f(x)={█(0,x¯(∈)[α;β]@1/(β-α),x∈[α;β])┤.
Остается выбрать границы отрезка [α;β]. При этом следует помнить, что любая аналитическая функция, с помощью которой выравнивается статистическое распределение, должна обладать основными свойствами плотности вероятности:
1) f(x) ≥ 0;
2) условие нормировки: ∫_(-∞)^(+∞)▒f(x) dx=1.

 
Форум » Беседка » Беседка » теории вероятностей
  • Страница 1 из 1
  • 1
Поиск:
Мини-профиль
Часы





Поиск
Друзья сайта


{TGZ}

Наш баннер

Статистика
Каталог сайтов Всего.RU Rambler's Top100
Total users: 105
» Зарег. на сайте
Всего: 105
Новых за месяц: 0
Новых за неделю: 0
Новых вчера: 0
Новых сегодня: 0
» Из них
Администраторов: 5
Модераторов: 1
Модератор форума:
Проверенных: 48
Обычных юзеров: 49
» Из них
Парней: 98
Девушек: 7


Пользователи, посетившие
сайт за текущий день :
Хостинг от uCoz