Смекни!
smekni.com

Теория вероятностей (стр. 2 из 3)

P (Ai), P (Bj/Ai), …, P (Yl/Ai Ç Bj Ç … Ç Xk). (5)

По вероятностям (5) с помощью теоремы умножения могут быть определены вероятности Р (Е) для всех исходов Е составного испытания, а вместе с тем и вероятности всех событий, связанных с этим испытанием (подобно тому, как это было сделано в разобранном выше примере). Наиболее значительными с практической точки зрения представляются два типа составных испытаний: а) составляющие испытания не зависимы, то есть вероятности (5) равны безусловным вероятностям P (Ai), P (Bj),..., P (Yl); б) на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, то есть вероятности (5) равны соответственно: P (Ai), P (Bj /Ai),..., P (Yi / Xk). В этом случае говорят об испытаниях, связанных в цепь Маркова. Вероятности всех событий, связанных с составным испытанием, вполне определяются здесь начальными вероятностями Р (Аi) и переходными вероятностями P (Bj / Ai),..., P (Yl / Xk)

Случайные величины. Если каждому исходу Er испытания Т поставлено в соответствие число х,, то говорят, что задана случайная величина X. Среди чисел x1, х2,......, xs могут быть и равные; совокупность различных значений хг при r = 1, 2,..., s называют совокупностью возможных значений случайной величины. Набор возможных значений случайной величины и соответствующих им вероятностей называется распределением вероятностей случайной величины. Так, в примере с бросанием двух костей с каждым исходом испытания (i, j) связывается случайная величина Х = i + j - сумма очков на обеих костях. Возможные значения суть 2, 3, 4,..., 11, 12; соответствующие вероятности равны 1/36, 2/36, 3/36,..., 2/36, 1/36.

При одновременном изучении нескольких случайных величин вводится понятие их совместного распределения, которое задаётся указанием возможных значений каждой из них и вероятностей совмещения событий

{X1 = x1}, {X2 = x2}, …, {Xn = xn}, (6)

где xk - какое-либо из возможных значений величины Xk. Случайные величины называются независимыми, если при любом выборе xk события (6) независимы. С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, например события a < X1 + Х2 +... + Xn < b и т.п.

Часто вместо полного задания распределения вероятностей случайной величины предпочитают пользоваться небольшим количеством числовых характеристик. Из них наиболее употребительны математическое ожидание и дисперсия.

В число основных характеристик совместного распределения нескольких случайных величин, наряду с математическими ожиданиями и дисперсиями этих величин, включаются коэффициенты корреляции и т.п. Смысл перечисленных характеристик в значительной степени разъясняется предельными теоремами.

Схема испытаний с конечным числом исходов недостаточна уже для самых простых применений теории вероятностей. Так, при изучении случайного разброса точек попаданий снарядов вокруг центра цели, при изучении случайных ошибок, возникающих при измерении какой-либо величины, и т.д. уже невозможно ограничиться испытаниями с конечным числом исходов. При этом в одних случаях результат испытания может быть выражен числом или системой чисел, в других - результатом испытания может быть функция (например, запись изменения давления в данной точке атмосферы за данный промежуток времени), системы функций и т.п. Следует отметить, что многие данные выше определения и теоремы с незначительными по существу изменениями приложимы и в этих более общих обстоятельствах, хотя способы задания распределений вероятностей изменяются.

Наиболее серьёзное изменение претерпевает определение вероятности, которое в элементарном случае давалось формулой (2). В более общих схемах, о которых идёт речь, события являются объединениями бесконечного числа исходов (или, как говорят, элементарных событий), вероятность каждого из которых может быть равна нулю. В соответствии с этим свойство, выраженное теоремой сложения, не выводится из определения вероятности, а включается в него.

Наиболее распространённая в настоящее время логическая схема построения основ теории вероятностей разработана в 1933 советским математиком А. Н. Колмогоровым. Основные черты этой схемы следующие. При изучении какой-либо реальной задачи - методами теории вероятностей прежде всего выделяется множество U элементов u, называемых элементарными событиями. Всякое событие вполне описывается множеством благоприятствующих ему элементарных событий и потому рассматривается как некое множество элементарных событий. С некоторыми из событий А связываются определённые числа Р (A), называемые их вероятностями и удовлетворяющие условиям

1. 0 £ Р (А) £ 1,

2. P (U) = 1,

3. Если события A1,..., An попарно несовместны и А - их сумма, то

Р (А) = Р (A1) + P (A2) + … + Р (An).

Для создания полноценной математической теории требуют, чтобы условие 3 выполнялось и для бесконечных последовательностей попарно несовместных событий. Свойства неотрицательности и аддитивности есть основные свойства меры множества. Теория вероятностей может, таким образом, с формальной точки зрения рассматриваться как часть меры теории. Основные понятия теории вероятностей получают при таком подходе новое освещение. Случайные величины превращаются в измеримые функции, их математические ожидания - в абстрактные интегралы Лебега и т.п. Однако основные проблемы теории вероятностей и теории меры различны. Основным, специфическим для теории вероятностей является понятие независимости событий, испытаний, случайных величин. Наряду с этим теория вероятностей тщательно изучает и такие объекты, как условные распределения, условные математические ожидания и т.п.

Предельные теоремы.

При формальном изложении теории вероятностей предельные теоремы появляются в виде своего рода надстройки над ее элементарными разделами, в которых все задачи имеют конечный, чисто арифметический характер. Однако познавательная ценность В. т. раскрывается только предельными теоремами. Так, Теорема Бернулли показывает, что при независимых испытаниях частота появления какого-либо события, как правило, мало отклоняется от его вероятности, а Теорема Лапласа указывает вероятности тех или иных отклонений. Аналогично смысл таких характеристик случайной величины, как её математическое ожидание и дисперсия, разъясняется законом больших чисел и центральной предельной теоремой

Пусть

X1, Х2,..., Xn,... (7)

- независимые случайные величины, имеющие одно и то же распределение вероятностей с EXk = а, DXk = s2 и Yn - среднее арифметическое первых n величин из последовательности (7):

Yn = (X1 + X2 + … +Xn)/n.

В соответствии с законом больших чисел, каково бы ни было e > 0, вероятность неравенства |Yn - a| £ e имеет при n ®¥ пределом 1, и, таким образом, Yn как правило, мало отличается от а. Центральная предельная теорема уточняет этот результат, показывая, что отклонения Yn от а приближённо подчинены нормальному распределению со средним 0 и дисперсией s2 / n. Таким образом, для определения вероятностей тех или иных отклонений Yn от а при больших n нет надобности знать во всех деталях распределение величин Xn, достаточно знать лишь их дисперсию.

В 20-х гг. 20 в. было обнаружено, что даже в схеме последовательности одинаково распределённых и независимых случайных величин могут вполне естественным образом возникать предельные распределения, отличные от нормального. Так, например, если X1 время до первого возвращения некоторой случайно меняющейся системы в исходное положение, Х2 - время между первым и вторым возвращениями и т.д., то при очень общих условиях распределение суммы X1 +... + Xn (то есть времени до n-говозвращения) после умножения на n 1/a (а - постоянная, меньшая 1) сходится к некоторому предельному распределению. Таким образом, время до n-го возвращения растет, грубо говоря, как n 1/a, то есть быстрее n (в случае приложимости закона больших чисел оно было бы порядка n).

Механизм возникновения большинства предельных закономерностей может быть до конца понят лишь в связи с теорией случайных процессов.

Случайные процессы.

В ряде физических и химических исследований последних десятилетий возникла потребность, наряду с одномерными и многомерными случайными величинами, рассматривать случайные процессы, то есть процессы, для которых определена вероятность того или иного их течения. Примером случайного процесса может служить координата частицы, совершающей броуновское движение. В В. т. случайный процесс рассматривают обычно как однопараметрическое семейство случайных величин Х (t). В подавляющем числе приложений параметр t является временем, но этим параметром может быть, например, точка пространства, и тогда обычно говорят о случайной функции. В том случае, когда параметр t пробегает целочисленные значения, случайная функция называется случайной последовательностью. Подобно тому, как случайная величина характеризуется законом распределения, случайный процесс может быть охарактеризован совокупностью совместных законов распределения для X (t1), X (t2),..., X (tn)для всевозможных моментов времени t1, t2,..., tn при любом n > 0. В настоящее время наиболее интересные конкретные результаты теории случайных процессов получены в двух специальных направлениях.

Исторически первыми изучались марковские процессы. Случайный процесс Х (t) называется марковским, если для любых двух моментов времени t0 и t1 (t0 < t1) условное распределение вероятностей X (t1) при условии, что заданы все значения Х (t) при t £ t0, зависит только от X (t0) (в силу этого марковские случайные процессы иногда называют процессами без последействия). Марковские процессы являются естественным обобщением детерминированных процессов, рассматриваемых в классической физике. В детерминированных процессах состояние системы в момент времени t0 однозначно определяет ход процесса в будущем; в марковских процессах состояние системы в момент времени t0 однозначно определяет распределение вероятностей хода процесса при t > t0, причём никакие сведения о ходе процесса до момента времени t0 не изменяют это распределение.