Шпаргалка По Теории Вероятности

 Posted admin
Шпаргалка По Теории Вероятности Rating: 3,5/5 9722 reviews
  1. Шпаргалка По Теории Вероятности Егэ
  2. Шпаргалка По Теории Вероятности И Математической Статистике

Предмет теория вероятностей. Теория вероятности - есть математическая наука, изучающая закономерности в случайных явлениях. Наблюдаемые нами события (явления) можно подразделить на следующие три вида: достоверные, невозможные и случайные. Достоверным называют событие, которое. Шпаргалки по теории вероятностей,подробные примеры решения задач по теории вероятностей. Шпаргалка - Теория. Если её плотность вероятности р. Как в теории случайных величин.

Шпаргалка По Теории Вероятности Егэ

. Какие события называются независимыми? Докажите, что если события A и B независимы, то независимы события A и B’ Если выполняется равенство Р B (А)=Р(А) то события А и В независимы. Для двух независимых событий А и В имеем Р(АВ)=Р(А).Р(В)- правило умножения вероятностей для двух событий. А=АВ+АВ’  Р(А)= Р(АВ)+Р(АВ’), или Р(А)=Р(АВ’)+Р(А)Р(В).

Отсюда Р(АВ’)=Р(А)  1-Р(В) , или Р(АВ’)=Р(А)Р(В’). Сформулируйте и докажите формулу полной вероятности. Пусть событие А может наступить при условии появления одного из несовместных событий В1, В2,В3., Вn, которые образуют полную группу.

Пусть известны вероятности этих событий и условные вероятности Р в2 (А),., Рвn (А) события А. Найдем вероятность события А. Вероятность события А, которое может наступить лишь при условии появления одного из несовместных событий В1, В2,Вn, образующих полную группу, равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А: Р(А) = Р(В1) Рв1(А) + Р(В2) Рв2(А) +.+ Р(Вn) Рвn(А). Эта формула называется «формулой полной вероятности». Докажем ее По условию, событие А может наступить, если наступит одно из несовместных событий В1,В2,Вn.

Другими словами, появление события А означает осуществление одного, безразлично какого, из несовместных событий В1А, В2А, ВnА. Пользуясь для вычисления события А теоремой сложения, получаем Р(А) = Р(В1А) + Р(В2А) +.+ Р(ВnА) (1) Остается вычислить каждое из слагаемых. По теореме умножения вероятностей зависимых событий имеем: Р(В1А) = Р(В1) Рв1(А); Р(В2) Рв2(А):. Р(ВnА) = Р(Вn) Р( bn) (А) Подставляем правые части этих равенств в соотношение (1) и получаем формулу полной вероятности: Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) +.+ Р(Вn) Рвn (А). Сформулируйте и докажите формулу Байеса.

Пусть событие А может наступить при условии появления одного из несовместных событий В1,В2,Вn, образующих полную группу. Поскольку заранее неизвестно, какое из этих событий наступит, их называют гипотезами. Вероятность появления события А определяется по формуле полной вероятности: Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) +.+ Р(В n ) Рв n (А) (1) Допустим, что произведено испытание, в результате которого появилось событие А. Определим, как изменились, в связи с тем, что событие А уже наступило, вероятности гипотез. Другими словами, будем искать условные вероятности Ра(В1), Ра(В2)., Ра(В n ). Найдем вначале условную вероятность Ра(В1). По теореме умножения имеем Р(АВ1) = Р(А) Ра(В1) = Р(В1)Рв1(А) Отсюда Ра(В1) = Р(В1)Рв1(А) Р(А) Заменим здесь Р(А) по формуле (1), получаем p A(H i)= р в i (A)p( В i ).

Р В1(А 1)р(В 1)+р В2(А)р(В 2)р В n(А)р(В n) Аналогично выводятся формулы, определяющие условные вероятности остальных гипотез, т.е. Условная вероятность любой гипотезы Вi (i= 1,2,n) может быть вычислена по формуле Ра(В i ) = Р(В i ) Рв i (А) Р(В1) Рв1(А) + Р(В2) Рв2(А)+.+Р(В n ) Рв n (А) Полученные формулы называются формулы Байеса. Они позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А. Выведите формулу для наиболее вероятного числа успехов в серии n испытаний по схеме Бернулли. Рассмотрим 2 соседних числа Р n(k) и Р n(k+1). Они либо равны, либо 1=1.

Р n(k)=С n k p kq n - k; P n(k+1)=C n k +1p k +1q n - k -1. C n k +1=С n k.(n-k)/(k+1). Сл-но (k+1)/(n-k)=1. Или (k+1).q=(n-k).p. Сл-но k=n.p-q. Обозначим np-q как a. Сл-но для любого ka-1, P n(k)P n(k+1).

При ka-1, убывает.То есть, если а не являя-ся целым, то ф-я имеет единственный максимум, он достигается при ближайшем к а слева целом значении k, k=a=n.p +p. Если а =целое, то 2 разных максимума достигаются при k=a-1, k=a. Н-во Чебышева: пусть X – случ. Величина, у кот есть M(X)=m и D(X)=a, тогда  0 справедливо н-во P( X-m )  D(X)/ 2. Противоположное событие: 1 - P( X-m )  1 - D(X)/ 2; P( X-m 0 оценим вероятность события, гдеk – число успехов в n опытах.

Шпаргалка по теории вероятности

Это неравенство эквивалентно k-np n, т.е.n  k-np  n или np-n  k  np+n. Таким образом, речь идёт о получении оценки для вероятности события k 1  k  k 2, где k 1 = np-n, k 2 = np+n. Применяя интегральную приближённую формулу Лапласа, получим: P( . С учётом нечётности функции Лапласа получаем приближённое равенство P(  2Ф(. Примечание: т.к.

По условию n=1, то подставляем вместо n единицу и получаем окончательный ответ. Пусть X – дискретная случайная величина, принимающая только неотрицательные значения и имеющая математическое ожидание m.

Докажите, что P ( X ≥ 4) ≤ m/ 4. Докажем неравенство Маркова: Если x0 и a=const, a0, то Док-во: Введём новую величину: Y 0 a P P(x0, M(x)=m По неравенству Маркова: P(X 4) m/4. Докажите, что если X и Y – независимые дискретные случайные величины, принимающие конечное множество значений, то М( XY )=М( X )М( Y ) Если случайные величины X и Y независимы, то математическое ожидание их произведения равно произведению их математических ожиданий (теорема умножения математических ожиданий). Возможные значения X обозначим x 1, x 2, возможные значения Y - y 1, y 2, а p ij = P ( X = x i, Y=y j ). Закон распределения величины XY будет выражаться соответствующей таблицей. А M ( XY )= Ввиду независимости величин X и Y имеем: P ( X = x i, Y=y j )= P ( X = x i ) P (Y=y j ).

Обозначив P ( X = x i )= r i, P (Y=y j )= s j, перепишем данное равенство в виде p ij = r i s j Таким образом, M ( XY )= =. Преобразуя полученное равенство, выводим: M ( XY )=( )( ) = M ( X ) M ( Y ). Докажите, что если X и Y – дискретные случайные величины, принимающие конечное множество значений, то М ( X + Y ) = М ( X ) +М ( Y ). Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых:M(X+Y)= M(X)+M(Y). Пусть случайные величины X и Y заданы следующими законами распределения (. )( возьмем 2 значения): X x 1 x 2 p p 1 p 2 Y y 1 y 2 g g 1 g 2 Составим все возможные значения величины X+Y. Для этого к каждому возможному значению X прибавим возможное значение Y; получим x 1+y 1, x 1+y 2, x 2+y 1, x 2+y 2.

Предположим, что эти возможные значения различны( если не так, то доказательство аналогично), и обозначим их вероятности соответственно через p 11,p 12,p 21,p 22. Математическое ожидание величины X+Y равно сумме произведений возможных значений на их вероятности: M(X+Y) = (x 1+y 1).p 11+(x 1+y 2). p 12+(x 2+y 1). p 21+(x 2+y 2). p 22, или M(X+Y) = x 1.(p 11+p 12)+ x 2.(p 21+p 22)+ +y 1.(p 11+p 21)+ y 1.(p 12+p 22). Докажем, что p 11+p 12=p 1. Событие, состоящие в том, что X примет значение x 1 (вероятность этого события равна p 1), влечет за собой событие, которое состоит в том, что X+Y примет значение x 1+y 1 или x 1+y 2 (вероятность этого события по теореме сложения равна p 11+p 12), и обратно.

Инженерное обслуживание зданий и сооружений н.е.пащенкой. Отсюда следует, что p 11+p 12=p 1. Аналогично доказываются равенства p 21+p 22=p 2, p 11+p 21=g 1 и p 12+p 22=g 2. Подставляя правые части этих равенств в соотношение (.), получим M(X+Y)=(x 1p 1+x 2p 2)+(y 1g 1+y 2g 2), или M(X+Y)= M(X)+M(Y). Пусть Х – дискретная случайная величина, распределенная по биномиальному закону распределения с параметрами n и р. Докажите, что М(Х)=nр, D(Х)=nр(1-р). Пусть производится n независимых испытаний, в каждом из которых может появиться событие А с вероятностью р, так что вероятность противоположного события Ā равна q=1-p. Рассмотрим сл.

Величину Х – число появления события А в n опытах. Представим Х в виде суммы индикаторов события А для каждого испытания: Х=Х 1 +Х 2 Х n. Теперь докажем, что М(Х i )=р, D(Х i )=np. Для этого рассмотрим закон распределения сл. Величины, который имеет вид: Х 0 1 Р Р q Очевидно, что М(Х)=р, случайная величина Х 2 имеет тот же закон распределения, поэтому D(Х)=М(Х 2 )-М 2 (Х)=р-р 2 =р(1-р)=рq. Таким образом, М(Х i )=р, D(Х i )=pq.

По теореме сложения математических ожиданий М(Х)=М(Х 1 )+.+М(Х n )=nр, D(Х)=D(Х 1 ) D (Х n )=npq= np (1-р). Пусть X – дискретная случайная величина, распределенная по закону Пуассона с параметром. Докажите, что M ( X ) = D ( X ) = λ. Закон Пуассона задается таблицей: X 0 1 2 3 P λ−e λλ−e λλ−e!22 λλ−e!33 Отсюда имеем: = Таким образом, параметр λ, характеризующий данное пуассоновское распределение, есть не что иное как математическое ожидание величины X. Это легко понять, если вспомнить, что формулы Пуассона получились как предельный вариант формул Бернулли, когда, причем ∞→n∞→nλ = np. Поскольку для биномиального закона математическое ожидание равно np, то неудивительно, что для пуассоновского закона M(X) =. Более того, мы можем предположить, что дисперсия X тоже будет равна λ, поскольку для биномиального закона D(X) = npq и 1 при →q.

Действительно, непосредственный подсчет дисперсии подтверждает это предположение, однако мы не приводим его здесь из-за сложности выкладок. Ниже мы выведем эти формулы более простым способом. Таким образом, для закона Пуассона. M(X) = λ, D(X) = λ. Пусть Х – дискретная случайная величина, распределенная по геометрическому закону с параметром р. Докажите, что M (X) = 1/Р. Геометрический закон связан с последовательностью испытания Бернулли до 1-го успешного А (события), р=р(А) х 1 2 n Р р pq Pq n-1.

Докажите, что коэффициент корреляции случайных величин Х и У удовлетворяет условию. Коэффициентом корреляции двух слу­чайных величин называется отношение их ковариации к произведе­нию средних квадратических отклонений этих величин: p xy= K xy/«сигма» х«сигма» х.

Шпаргалка по теории вероятности

Из определения следует, что р ху= р ух= р. Очевидно также, что коэффициент корреляции есть безразмерная величина. Отметим свойства коэффициента корреляции.

Коэффициент корреляции принимает значения на отрезке -1;1,т.е.10, то P(Xa)  M(X)/a Н-во Чебышева: пусть X – случ. Величина, у кот есть M(X)=m и D(X)=a, тогда  0 справедливо н-во P( X-m )  D(X)/ 2 Док-во: P(X)  m/ - н-во Маркова. X-m ; (X-m) 2/ 21; P( X-m ) = P((X-m) 2/ 21)  M((X-m) 2/ 2) = 1/ 2 M((X-m) 2) = D/ 2; P( X-m ) D(X)/ 2. Выборочная дисперсия D b- среднее арифметическое квадрата отклонения наблюдаемого значения признака от их среднего значения Хв.

Если все значения х 1+х 2х n выборки v n различны, то D B= Если значения признака х 1,х 2,х n имеют соответствующие частоты n 1,n k; n 1n k=n D B= D= D= = = = 1°. Теорема Чебышева. Неравенство Чебышева позволяет доказать ряд важных теорем, объе-диненных одним общим названием 'закон больших чисел'. Основная из этих теорем принадлежит самому П.Л. Теорема 10.1.

(теорема Чебышева). Пусть имеется бесконечная последовательность X 1, X 2, независимых случайных величин с одним и тем же математическим ожиданием m и дисперсиями, ограниченными одной и той же постоянной: Тогда, каково бы ни было положительное число, вероятность события стремится к единице при Доказательство. В силу свойств математического ожидания имеем:. Далее, так как величины независимы,. Сопоставив полученное неравенство с неравенством Чебышева:, будем иметь:.

Это показывает, что с ростом n вероятность события стремится к 1. Смысл теоремы Чебышева можно пояснить следующим примером. Спасти рядового райна игра торрент.

Пусть требуется измерить некоторую физическую величину m. В силу неизбежных ошибок результат измерения будет случай-ной величиной. Обозначим эту величину X; ее математическое ожидание будет совпадать с измеряе-мой величиной m, а дисперсия равна некоторой величине D (характеризующей точность измеритель-ного прибора).

Произведем n независимых измерений и обозначим: X 1 – результат первого измерения; X 2 – результат второго измерения и т.д. Совокупность величин X 1, X 2, X n представляет собой систему n независимых случайных ве-личин, каждая из которых имеет тот же закон распределения, что и сама величина X. Среднее ариф-метическое этих величин тоже является, конечно, случайной величиной. Однако с увеличением n эта величина почти перестает быть случайной, она все более приближается к постоянной m. Точная количественная формулировка этой близости состоит в том, что событие становится как угодно достоверным при достаточно большом n. Если в каждом из п независимых испытаний вероятность р появления события А постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико.

Другими словами, если - сколь угодно малое поло­жительное число, то при соблюдении условий теоремы имеет место равенство. Обозначим через Х 1 дискретную случайную величину—число появлений события в первом испытании, через Х 2—во втором., Х n—в n-м испы­тании. Ясно, что каждая из величин может принять лишь два значения: 1 (событие А наступило) с вероят­ностью р и 0 (событие не появилось) с вероятностью 1—р=q.

Шпаргалка по теории вероятности егэ

Можно ли применить к рассматриваемым величинам теорему Чебышева? Можно, если случайные величины по­парно независимы и дисперсии их ограничены. Оба усло­вия выполняются. Действительно, попарная независимость величин X 1, Х 2,., Х n следует из того, что испытания независимы. Дисперсия любой величины X i (i= 1, 2,., n) равна произведению pq, так как p + q =1,то произве­дение pq не превышает 1/4 и, следовательно, дисперсии всех величин ограничены, например, числом С =1/4.

Шпаргалка По Теории Вероятности И Математической Статистике

Применяя теорему Чебышева (частный случай) к рас­сматриваемым величинам, имеем Приняв во внимание, что математическое ожидание а каждой из величин X i (т. Математическое ожидание числа появлений события в одном испытании) равно ве­роятности р наступления события, получим Остается показать, что дробь ( X 1 + X 2 + X n )/ n равна относительной частоте т/п появлений события А в испытаниях. Действительно, каждая из величин X 1, X 2, X n при появлении события в соответствующем испытании принимает значение, равное единице; следовательно, сумма X 1+X 2X n равна числу m появления события в n испытаниях, а значит, Учитывая, это равенство, окончательно получим.