Зарегистрироваться

Теория вероятностей

Категории Теория вероятностей | Под редакцией сообщества: Математика

Теория вероятностей – математическая наука, изучающая математические модели случайных явлений. Аксиоматика Т.в. была предложена А.Н.Колмогоровым в начале 1930-х гг. и ее построение было основано на понятиях теории функций действительного переменного, возникших в конце 19-го в. в связи с развитием теоии меры и интегрирования.

Понятие аксиоматики Колмогорова

Исходным понятием аксиоматики Колмогорова является понятие вероятностного пространства, которое представляет собой тройку объектов ( Ω, Ƒ, P ), где Ω - множество произвольной природы, Ƒ - s-алгебра его подмножеств и P - вероятностная мера, заданная на Ƒ (определения см. ниже). На вероятностных пространствах рассматриваются измери-мые функции, меры, порожденные этими функциями, интегралы и т.д.

Иногда построение аксиоматики Колмогорова связывают с решением 6-й проблемы Гильберта, которая была сформулирована в 1900 г. как задача аксиоматизации физических наук, в которых широко использовалась математика. К таким наукам Д.Гильберт относил Т.в. и механику. После работ А.Н.Колмогорова стало ясно, что Т.в. – наука математичес-кая, поскольку она изучает математические объекты.

Возможность получения содержательных результатов, связанных со случайными явлениями (точнее, с массовыми случайными явлениями, которые рассматриваются в Т.в.) обусловлена тем, что они обладают устойчивостью частот. Это означает следующее. Пусть случайное явление (далее – эксперимент со случайным исходом) происходит при осуществлении некоторого комплекса условий К. Рассматриваются только те эксперименты, для которых комплекс К может осуществляться многократно (при этом подразумевается, что эксперименты проводятся при одинаковых условиях и независимо друг от друга). Пусть A –событие, которое может произойти или не произойти в результате осуществления комплекса К, комплекс К осуществляется N раз (иначе говоря, проводится серия из N экспериментов) и N(A) число экспериментов в серии, в которых событие A произошло. Пусть nN(A) = N(A)/N – относительная частота появления события A в серии из N экспериментов. Говорят, что эксперимент обладает устойчивостью частот, если для больших N частоты nN(A) (которые могут изменяться от серии к серии, длины серий N могут быть различны) близки к одной и той же величине P(A), которую принято называть вероятностью события A.

Один из простейших экспериментов со случайным исходом – бросание игральной кости, представляющей собой кубик из однородного материала, на шести гранях которой изображены числа (очки) 1, 2,..., 6. Игральную кость можно бросать многократно, можно проводить серии, состоящие из большого числа бросаний и событие A – выпавшее число очков четно – в каждой серии будет появляться примерно в половине случаев, что соответствует тому, что P(A)=1/2.

Математические модели

Математические модели простейших экспериментов со случайными исходами можно строить следующим образом. Из возможных результатов эксперимента выделяется множество элементарных исходов (в случае с игральной костью – выпадение одного, двух,..., шести очков), которые обладают следующими свойствами. При каждом осуществлении комплекса К появляется (реализуется) один и только один элементарный исход, причем для любого события, которое может произойти в эксперименте, зная, какой элементарный исход реализовался, можно судить, произошло или нет данное событие. В так наз. элементарном случае число элементарных исходов конечно. Этим исходам ставятся в соответствие точки w1,…, wl некоторого абстрактного множества W. События, которые могут произойти в эксперименте, отождествляются с подмножествами множества W. При этом считается, что если при осуществлении комплекса К реализовался элементарный исход w, то произошли все события A, AÌW, для которых wÎA (такие исходы w называются исходами, благоприятствующими событию A), и не произошли события B, для которых wÏB. Операциям над реальными событиями соответствуют теоретико-множественные операции над подмножествами W. Так, наступлению хотя бы одного из событий A1,..., An соответствует объединение A1∪ ∪An, наступлению всех событий A1,... An соответствует пересечение A1∩ ∩An, ненаступлению A соответствует событие = W\A (это событие называют дополнением к событию A, событием, противоположным A, и т.д.), отношению «A влечет B» (то есть всякий раз, когда происходит A, происходит и B) соответствует отношение AÌB, несовместность событий A и B (т.е. A и B не могут произойти одновременно при реализации К) означает, что AB=Æ. В элементарном случае множество событий Ƒ состоит из всех подмножеств множества W (включая само множество W, называемое достоверным событием, и пустое множество Æ, называемое невозможным событием). Число элементов | Ƒ | множества событий Ƒ и число элементов |W| множества элементарных исходов связаны равенством | Ƒ |=2|W|.

В приведенном выше примере множество W состоит из точек w1, w2,..., w6, соответствующих выпадению 1, 2, ..., 6 очков. Событие A = {w2, w4, w6} означает выпадение четного числа очков, событие = {w1, w3, w5} означает выпадение нечетного числа очков, события A и B = {w3} несовместны и т.д.

В элементарном случае множество событий Ƒ является алгеброй множеств, т.е. содержит W, Æ и замкнуто относительно теоретико-множественных операций, а вероятности событий можно определять следующим образом. Каждому элементарному исходу w приписывается число p(w), называемое вероятностью исхода w, числа p(w) неотрицательны и . Для каждого AÎ Ƒ его вероятность определяется равенством

P(A) =     .                                              (1)
Это определение приводит к следующим свойствам вероятности

  1. P(A) ³ 0 для любого AÎ Ƒ,

  2. P(W) = 1, P(Æ) = 0,

  3. P(AB) = P(A) + P(B), если AB = Æ.
Последнее свойство называется аддитивностью и распространяется на любое конечное число событий

P(A1∪…∪Am) = P(A1) + … + P(Am), если AiAj = Æ при ij.
Свойства вероятности 1. – 3. аналогичны свойствам относительных частот.

Частный случай формулы (1), в котором все вероятности p(w) одинаковы, приводит к равенству P(A) = |A|/|W|, которое называется классическим определением вероятности и читается как «вероятность события A равна отношению числа исходов, благоприятствую-щих событию A, к общему числу всех исходов».

Тройка ( Ω, Ƒ, P ), элементы которой описаны выше, является частным случаем вероятностного пространства. На каждом вероятностном пространстве можно рассматривать функции X = X(w), w Î W. В случае, когда множество событий Ƒ является множеством всех подмножеств множества W, любая функция X(w) называется случайной величиной. В случае конечного множества W множество {x1,…, xm} = {X(w): wÎW} возможных значений случайной величины X также конечно и 1 £ m £ |W|. В Т.в. наиболее интересны функции X, для которых число возможных значений в каком-то смысле невелико (точнее, по значению реализации X(w) можно совсем немного сказать о реализации w). В частности, первые содержательные результаты Т.в. были получены для случайных величин, которые принимают два значения. Для работы с такими функциями используется понятие функции распределения. Функцией распределения (действитель-ной) случайной величины X называется функция FX (x) = P(X<x) = P({w: X(w) < x}), определенная для всех действительных x. Для случайной величины X, принимающей значения x1<...<xm с вероятностями p1,…, pm, p1 + … + pm = 1, функция распределения F(x) равна нулю при x < x1 , равна единице при x > xm, постоянна на интервалах (xk, xk+1),
k = 1, …, m – 1, и имеет скачки p1,…, pm в точках x1,…, xm. Соответствие между случай-ными величинами и их функциями распределения не является взаимно однозначным, но знание функций распределения позволяет отвечать на все практические вопросы, связанные со случайными величинами.

Во многих задачах теории вероятностей требуется по вероятностям одних событий определять вероятности других. Одна из таких задач состит в следующем. Заданы функции распределения случайных величин X1,…, Xn (то есть заданы вероятности событий X1 < x1,…, Xn < xn для всех действительных x1,…, xn) и некоторая функция
f(u1,…, un). Требуется найти функцию распределения случайной величины f(X1,…, Xn). Оказывается, что так поставленная задача не имеет решения, поскольку на последнюю функцию распределения влияет зависимость между случайными величинами X1,…, Xn. В качестве примера можно указать случайную величину X, принимающую значения -1 и 1 с вероятностями ½ каждое, и случайные величины Y = X и Z = -X. Случайные величины Y и Z также принимают значения -1 и 1 с вероятностями ½ каждое, однако случайная величина X+Y принимает значения -2 и 2 с вероятностями ½ каждое, а X+Z принимает только значение 0 с вероятностью 1.

Последний пример показывает необходимость описания зависимостей между случайными величинами. Зависимость между случайными величинами можно задавать, например, функцией F(x1,…, xn) = P(X1 < x1,…, Xn < xn), определенной для всех действительных x1,…, xn, которая называется совместной функцией распределения этих случай-ных величин.

Виды зависимости между случайными величинами

Один из важнейших видов зависимости между случайными величинами связан с их независимостью. Для того, чтобы определить это понятие, вначале обычно вводят понятие условной вероятности. Условной вероятностью события A при условии, что событие B
(с P(B) > 0) произошло, называется величина

P(A|B) = P(AB)/P(B)
(это равенство – аналог такого же равенства для частот). Естественно считать, что события A и B независимы, если P(A|B) = P(A). Последнее равенство эквивалентно тому, что

P(AB) = P(A)P(B).

Это равенство и принимается в качестве определения независимости событий A и B (при этом выполнения условия P(B) > 0 не требуется). Случайные величины X и Y называются независимыми, если события {w: X(w) < x} и {w: Y(w) < y} независимы при любых действительных x и y. Понятие независимости распространяется на любое число событий и случайных величин. В частности, случайные величины X1,…, Xn называются (взаимно) независимыми, если

P(X1 < x1,…, Xn < xn) = P(X1 < x1) ´…´ P(Xn < xn)
для любых действительных x1,…, xn. Функции переменных x1,…, xn в правой части этого равенства называются маргинальными функциями распределения случайных величин
X1,…, Xn. Таким образом, для независимых случайных величин их совместная функция распределения равна произведению их маргинальных функций распределения.

Для независимых случайных величин X1,…, Xn знание их функций распределения позволяет решать упомянутую задачу о функциях распределения функций от X1,…, Xn. При этом каждой операции над независимыми случайными величинами соответствует своя операция над их функциями распределения. Так, если случайные величины X1,…, Xn независимы и имеют одну и ту же функцию распределения F, то функция распределения максимума из X1,…, Xn есть

P(max(X1,…, Xn) < x) = P((Xj < x)) = P(Xj < x) = Fn(x),
функция распределения минимума из X1,…, Xn есть 1-(1-F(x))n, функция распределения суммы X1 + … + Xn является многократной сверткой (см. ниже) функции распределения F.

Понятие независимости событий позволяет строить модели сложных (составных) независимых экспериментов. Например, пусть имеется два эксперимента, которым соответствуют вероятностные пространства (A, ƑA, PA) и (B, ƑB, PB), при этом A ={a1,…, as}, вероятности элементарных исходов a1,…, as суть p1,…, ps, B = {b1,…, bt}, вероятности элементарных исходов b1,…, bt суть q1,…, qt и алгебры ƑA и ƑB состоят из всех подмножеств множеств A и B. Модель проведения двух этих экспери-ментов (составного эксперимента) можно построить следующим образом.

В качестве множества элементарных исходов составного эксперимента можно взять пары (ai, bj), i = 1,…, s, j = 1,…, t, то есть прямое произведение A´B, а в качестве мно-жества событий – множество всех подмножеств этого множества. Вероятности pij элементарных исходов (ai, bj) неотрицательны и удовлетворяют системе уравнений

= pi, i = 1,…, s, = qj, j = 1,…, t.
Любое решение этой системы приводит к модели составного эксперимента. Данная система содержит st неизвестных pij, которые связаны s+t уравнениями. Среди уравнений этой системы одно (любое) является следствием остальных и его можно исключить. То есть необходимо найти st неизвестных по s+t-1 уравнению. При s > 1 и t > 1 решение системы неединственно и это связано с существом дела: исходные эксперименты могут быть зависимыми и эти зависимости могут быть разными. Среди решений системы существует единственное решение, соответствующее независимым экспериментам, это решение pij = piqj, i = 1,…, s, j = 1, …,t. Так получается вероятностное пространство (A´B, ƑA´B, PA´PB), которое называется прямым произведением вероятностных пространств (A, ƑA, PA) и (B, ƑB, PB). На этом вероятностном пространстве события C´B (в первом эксперименте произошло событие C, а во втором – что угодно) и события A´D (во втором эксперименте произошло событие D, а в первом – что угодно) являются независимыми.

Следующий пример связан с прямым произведением n вероятностных пространств. Пусть комплекс условий К состоит в подбрасывании «монеты», на гранях которой изображены цифры 0 и 1, причем вероятность выпадения 1 есть p, 0 < p < 1. В качестве вероятностного пространства для этого эксперимента можно взять тройку (W, Ƒ, P), где W = {0, 1}, Ƒ = {W, Æ, {0}, {1}}, p(1) = p, p(0) = 1-p = q.

Пусть эксперимент производится n раз. В качестве множества элементарных исходов для этого сложного эксперимента можно взять прямое произведение n множеств {0, 1}, то есть единичный n-мерный куб, вершины w которого суть n-мерные векторы с компонен-тами 0 и 1. При этом m-я компонента вектора w есть 1 тогда и только тогда, когда при m-м бросании «монеты» выпала 1. В силу независимости бросаний p(w) = pkqn-k, где k – число единиц среди компонент w. Для исходов w, среди компонент которых ровно k единиц, случайная величина Sn, равная числу появлений 1 в серии из n бросаний, равна k. Число исходов w, среди компонент которых ровно k единиц, равно Cnk. Отсюда следует, что вероятность события Sn = k есть Cnkpkqn-k, при этом

Cnkpkqn-k = (p+q)n = 1.

Изучая слагаемые в левой части первого равенства, Я.Бернулли в конце 17 в. заме-тил, что их вклады в сумму существенно различны. Так, слагаемые, соответствующие малым k или k, близким к n, являются очень малыми. Основной вклад в сумму вносят слагаемые, для которых величины k близки к pn. Более того, Я.Бернулли установил, что для любого сколь угодно малого e при n ® ¥

Cnkpkqn-k ® 1, то есть, при больших n доля слагаемых, вносящих основной вклад в сумму биномиальных вероятностей, очень мала.

Последнее соотношение эквивалентно тому, что при n ® ¥

P(|Sn - pn| ≤ en) ® 1 или P(|Sn /n - p| ≤ e) ® 1.
Величина Sn /n совпадает с частотой nn(1) появления 1 в серии из n экспериментов, а p есть вероятность появления 1 в одном эксперименте, то есть при n ® ¥ для любого e > 0

P(|nn(1) - p(1)| ≤ e) ® 1.

Это утверждение, называемое законом больших чисел в форме Бернулли, было первым фундаментальным утверждением Т.в., оно может рассматриваться как аналог устойчивости частот, то есть свидетельством адекватности рассмотренной модели реальности. Разумеется, Я.Бернулли рассматривал другие задачи, использовал другие обозначения и т.д., но это не меняет существа дела.

Конечные вероятностные пространства

Конечные вероятностные пространства являются достаточно простыми математическими объектами, в частности вероятность любого события может быть вычислена, хотя бы в принципе, по формуле (1) с помощью полного перебора точек wÎW (на практике приходится использовать комбинаторные соображения), однако они не могут применяться при решении многих задач Т.в. Это связано, например, с тем, что на конечных вероятностных пространствах нет бесконечных последовательностей незави-симых событий, нет нетривиальных последовательностей независимых случайных величин, все случайные величины принимают лишь конечное множество значений, нет содержательных понятий сходимости случайных величин и их функций распределения. Замена конечных множеств W счетными множествами не приводит к сколь-нибудь значительному прогрессу.

В общем случае в Т.в. рассматриваются вероятностные пространства ( Ω, Ƒ, P ), где W - множество произвольной природы, Ƒ - некоторая s-алгебра подмножеств W ( то есть алгебра, замкнутая относительно объединений счетного числа множеств, это условие необходимо для того, чтобы наступление хотя бы одного из счетного множества событий вновь было событием), P - счетно-аддитивная функция, определенная на Ƒ, в определении которой свойство 3 вероятности заменяется на P(Ai) =P(Ai), Ai∩Aj = Æ для i ¹ j.

Это обобщение конечного вероятостного пространства приводит к появлению ряда серьезных математических проблем, но в результате появляются математические модели, широта и общность которых существенно превосходят те, что можно получить в элементарном случае. Упомянутые проблемы связаны, например, с тем, что в качестве Ƒ, вообще говоря, нельзя использовать множество всех подмножеств W. Это обусловлено тем, что для некоторых вероятностных мер существуют неизмеримые подмножества W, поэтому приходится использовать s-алгебры Ƒ, которые существенно уже множества всех подмножеств W. В связи с этим приходится изменять (по сравнению с элементарным случаем) понятие случайной величины. В общем случае случайной величиной X на вероятностном пространстве (W, Ƒ, P ) называется измеримая функция X(w), wÎW, то есть такая, что {w: X(w) < x} Î Ƒ для любого действительного x. Из условия измеримости следует, что для любой случайной величины X определена функция распределения
FX(x) = P(X < x), -¥ < x < ¥. Функция распределения F любой случайной величины обладает свойствами

1.   F(x) неубывает,

2.   F(-¥) = 0, F(¥) = 1,

3.   F(x) непрерывна слева.

В элементарном случае функции распределения случайных величин изменяются только скачками, в общем случае важную роль играют непрерывные (в том числе дифференци-руемые) функции распределения. Любая функция F, обладающая свойствами 1. – 3., называется функцией распределения.

В общем случае при определении вероятностей событий нельзя пользоваться формулой (1) хотя бы потому, что вероятности всех элементарных исходов могут быть нулевыми. Поэтому часто приходится поступать следующим образом. Для данного эксперимента со случайным исходом выделяется некоторая алгебра £ событий A, которым из содержательных соображений можно приписать вероятности P(A), а затем вероятность P продолжается на некоторую s-алгебру Ƒ, содержащую £. Обычно в качестве такой s-алгебры используется минимальная s-алгебра, содержащая £.

Например, пусть эксперимент состоит в том, что на промежуток W = [0, 1) «наудачу бросается» точка w. Слово «наудачу» означает равноправие всех точек из промежутка [0, 1). В этом случае событию A = [a, b), 0 £ a < b < 1 естественно приписать вероятность P(A) = b - a. Эту вероятность можно продолжить (так, чтобы P была аддитивной) на алгебру £, состоящую из конечных объединений промежутков [a, b), а затем - на мини-мальную s-алгебру Ƒ, содержащую £, то есть на совокупность борелевских подмножеств множества [0, 1). Так получается вероятностное пространство, состоящее из промежутка [0, 1) с s-алгеброй борелевских подмножеств этого промежутка и мерой Лебега. На этом вероятностном пространстве измеримыми функциями заведомо являются все непрерыв-ные функции и их пределы в смысле поточечной сходимости. На этом вероятностном пространстве существуют бесконечные последовательности независимых событий, и бесконечные последовательности независимых случайных величин. (Пример последова-тельности независимых случайных величин дает последовательность X1, X2,…, которая определяется следующим образом. Для каждого натурального n промежуток [0, 1) разбивается на 2n промежутков Ijn = [j/2n, (j+1)/2n), j = 0, 1,…, 2n-1, и функция Xn(w) полагается равной нулю на промежутках Ijn с четными j и равной единице на промежутках Ijn с нечетными j. Эти случайные величины независимы и принимают значения 0 и 1 с вероятностями ½ каждое. Последовательность An = {w: Xn(w) = 1}, n = 1, 2,…, дает пример последовательности (взаимно) независимых событий.) На этом вероятностном простран-стве для любой функции распределения F (функции, обладающей свойствами 1. – 3.) существует последовательность независимых случайных величин X1, X2,…, для которых функции распределения совпадают с F, для любой последовательности функций распре-деления F1, F2,… существует последовательность независимых случайных величин
X1, X2,…, для которых функции распределения совпадают с F1, F2,… соответственно.

На общих вероятностных пространствах можно рассматривать различные виды сходимости случайных величин, например, сходимость по вероятности (последователь-ность случайных величин X1, X2,… сходится по вероятности к случайной величине X, если P(|Xn - X | £ e) ® 1 при n ®¥ для любого e > 0, эта сходимость обозначается Xn X), и более сильную сходимость почти наверное (последовательность случайных величин
X1, X2,… сходится почти наверное к случайной величине X, если P({w: Xn(w) ® X(w), n ®¥}) = 1, эта сходимость обозначается Xn X). Эти виды сходимости – аналоги сходимостей по мере и почти всюду из теории функций действительного переменного.

Рассматриваются также различные виды сходимости на множестве функций распределения. Наиболее важным видом сходимости функций распределения является слабая сходимость, которую можно определять либо как Fn(x) ® F(x) при n ® ¥ для любой точки непрерывности x предельной функции распределения F, либо как  при n ® ¥ для любой непрерывной ограниченной функции f. На множестве функций распределения рассматриваются и более сильные виды сходимости, в частности, равномерная сходимость, сходимости в среднем и т.д. Рассматриваются вопросы, связанные с соотношениями между различными видами сходимости.

Закон больших чисел в форме Бернулли обобщается несколькими способами, эти обобщения связаны с суммами независимых случайных величин и используют числовые характеристики случайных величин, которые называются моментами.

Математическим ожиданием случайной величины X (моментом первого порядка) называется число

EX = P(dw)
при условии, что интеграл, понимаемый в смысле Лебега, конечен. Математическое ожидание можно вычислять с помощью функции распределения

EX = ,
где интеграл понимается в смысле Римана – Стилтьеса. Здесь и далее интегралы рассматриваются только при условии их абсолютной сходимости, в противном случае математические ожидания не существуют. Если случайная величина X принимает конечное число значений x1,…, xm, с вероятностями p1,…, pm, то

EX = ,
а если функция распределения FX (x) имеет плотность p(x), то есть представляется в виде

FX (x) = ,
то

EX = .
Для достаточно широкого класса функций f функция f(X) является случайной величиной и математическое ожидание Ef(X) можно вычислять по формуле

Ef(X) = .

Среди различных обобщений закона больших чисел в форме Бернулли – закон больших чисел в форме Хинчина, который утверждает, что если X1, X2,… - независимые одинаково распределенные случайные величины, у которых существует математическое ожидание EX1 = a и Sn = X1 + … + Xn, то при n ® ¥

P(|Sn/na| £ e) ®1
для любого e > 0 или, что то же самое,

Sn/n a.                                                   (2)
Справедлив также усиленный закон больших чисел: при n ® ¥

Sn /n a.

Закон больших чисел можно формулировать и в терминах функций распределения. Утверждение (2) эквивалентно утверждению о слабой сходимость функций распределения Fn(x) случайных величин Sn /n к вырожденной функции распределения Ea(x), которая имеет единичный скачок в точке a: при n ® ¥ для любого x ¹ a имеет место сходимость Fn(x) ® Ea(x), а также Ef(Sn /n) ® f(a) для любой непрерывной ограниченной функции f.

Утверждение (2) означает, что случайные величины Sn /n - a при больших n близки к нулю. Характер этой близости уточняет центральная предельная теорема, которая в простейшей форме утверждает, что если X1, X2,… - независимые случайные величины с конечным вторым моментом, то есть EX12 < ¥, то функции распределения нормированных сумм Sn* = (Sn - na)/(s) при n ® ¥ сходятся к стандартной нормальной функции распределения , то есть при n ® ¥

P(Sn* < x) ® F(x),                                            (3)
причем эта сходимость равномерна по -¥ < x < ¥. Здесь a = EX1 и s2 = E(X1 - a)2 - дисперсия X1

Отсюда следует, что функции распределения случайных величин Sn /n - a при росте n вырождаются, сближаясь при этом с нормальными законами с нулевыми средними и дисперсиями s2 /n (см. ст. Распределение вероятностей случайной величины).

При доказательстве центральной предельной теоремы приходится рассматривать распределения сумм независимых случайных величин. Эти функции распределения выражаются через функции распределения слагаемых с помощью формулы свертки. Например, если X1,…, Xn независимы, одинаково распределены и их общая функция распределения имеет плотность p, то плотность распределения суммы X1 +…+ Xn есть многократная свертка

Свертки распределений в явном виде вычисляются лишь в исключительных случаях, поэтому при их изучении приходится использовать обходные пути, позволяющие обходиться без этих вычислений. Один из этих путей связан с использованием характеристических функций, то есть, по существу, с использованим преобразования Фурье.

Закон больших чисел и центральная предельная теорема – фундаментальные утверждения Т.в., они обобщались на случай различно распределенных слагаемых, на случай зависимых случайных величин, на многомерный и бесконечномерный случаи и т.д. См. также Предельные теоремы.

Т.в. является основой как фундаментальных наук, среди которых теория случайных процессов и математическая статистика, так и прикладных дисциплин, среди которых теория массового обслуживания, математическая теория надежности, теория информации.

Литература

Гнеденко Б.В. Курс теории вероятностей.- 6-е изд. – М.: Наука, 1988.

Ширяев А.Н. Вероятность-1.- М.: МЦНМО, 2004.

 

В.В.Сенатов

Эта статья еще не написана, но вы можете сделать это.