Математическое ожидание случайного процесса и его свойства. Случайные величины

Рассматривая случайный процесс как систему уже трех – четырех случайных величин возникают трудности в аналитическом выражении законов распределения случайного процесса. Поэтому в ряде случаев ограничиваются характеристиками случайного процесса, аналогичными числовым характеристикам случайных величин.

Характеристики случайного процесса в отличие от числовых характеристик случайных величин представляют собой неслучайные функции. Среди них для оценки случайного процесса широко применяются функции математического ожидания и дисперсии случайного процесса, а также корреляционная функция случайного процесса.

Математическим ожиданием случайного процесса X(t) называется неслучайная функция , которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения случайного процесса

.

Из определения математического ожидания случайного процесса вытекает, что если известна одномерная плотность вероятности , то

. (6.3)

Случайный процесс X(t) всегда можно представить как сумму элементарных случайных функций

, где - элементарная случайная функция.

. (6.4)

Если задано множество реализаций случайного процесса X(t) , то для графического представления математического ожидания проводят ряд сечений и в каждом из них находят соответствующее математическое ожидание (среднее значение), а затем через эти точки проводят кривую (рис. 6.3).

Рисунок 6.3 – График функции математического ожидания

Чем больше проведено сечений, тем точнее будет построена кривая.

Математическое ожидание случайного процесса есть некоторая неслучайная функция, около которой группируются реализации случайного процесса.

Если реализации случайного процесса представляют собой ток или напряжение, то математическое ожидание трактуют как среднее значение тока или напряжения.

Дисперсией случайного процесса X(t) называется неслучайная функция , которая при каждом значении аргумента t равна дисперсии соответствующего сечения случайного процесса .

.

Из определения дисперсии случайного процесса вытекает, что если известна одномерная плотность вероятности , то

или (6.5)

Если случайный процесс представляется в виде , то

Дисперсия случайного процесса характеризует разброс или рассеивание реализаций относительно функции математического ожидания.

Если реализации случайного процесса представляют собой ток или напряжение, то дисперсию трактуют как разность между мощностью всего процесса и мощностью средней составляющей тока или напряжения в данном сечении, т.е.

. (6.7)

В ряде случаев вместо дисперсии случайного процесса используется среднее квадратичное отклонение случайного процесса

.

Математическое ожидание и дисперсия случайного процесса позволяют выявить вид средней функции, около которой группируются реализации случайного процесса, и оценить их разброс относительно этой функции. Однако внутренняя структура случайного процесса, т.е. характер и степень зависимости (связи) различных сечений процесса между собой, остается при этом неизвестной (рис. 6.4).

Рисунок 6.4 – Реализации случайных процессов X(t) и Y(t)

Для характеристики связи сечений случайного процесса вводится понятие смешанной моментной функции второго порядка - корреляционной функции .

Корреляционной функцией случайного процесса X(t) называется неслучайная функция , которая при каждой паре значений равна корреляционному моменту соответствующих сечений случайного процесса:

Где , .

Связь (см. рис. 6.4) между сечениями случайного процесса X(t) больше, чем между сечениями случайного процесса Y(t) , т.е.

.

Из определения следует, что если задана двумерная плотность вероятности случайного процесса X(t) , то

Корреляционная функция представляет собой совокупность корреляционных моментов двух случайных величин в моменты , причем оба момента рассматриваются в любом сочетании всех текущих возможных значений аргумента t случайного процесса. Таким образом, корреляционная функция характеризует статистическую связь между мгновенными значениями в различные моменты времени.

Свойства корреляционной функции.

1) Если , то . Следовательно, дисперсия случайного процесса является частным случаем корреляционной функции.

– количество мальчиков среди 10 новорождённых.

Совершенно понятно, что это количество заранее не известно, и в очередном десятке родившихся детей может оказаться:

Либо мальчиков – один и только один из перечисленных вариантов.

И, дабы соблюсти форму, немного физкультуры:

– дальность прыжка в длину (в некоторых единицах) .

Её не в состоянии предугадать даже мастер спорта:)

Тем не менее, ваши гипотезы?

2) Непрерывная случайная величина – принимает все числовые значения из некоторого конечного или бесконечного промежутка.

Примечание : в учебной литературе популярны аббревиатуры ДСВ и НСВ

Сначала разберём дискретную случайную величину, затем – непрерывную .

Закон распределения дискретной случайной величины

– этосоответствие между возможными значениями этой величины и их вероятностями. Чаще всего закон записывают таблицей:

Довольно часто встречается термин ряд распределения , но в некоторых ситуациях он звучит двусмысленно, и поэтому я буду придерживаться «закона».

А теперь очень важный момент : поскольку случайная величина обязательно примет одно из значений , то соответствующие события образуют полную группу и сумма вероятностей их наступления равна единице:

или, если записать свёрнуто:

Так, например, закон распределения вероятностей выпавших на кубике очков имеет следующий вид:

Без комментариев.

Возможно, у вас сложилось впечатление, что дискретная случайная величина может принимать только «хорошие» целые значения. Развеем иллюзию – они могут быть любыми:

Пример 1

Некоторая игра имеет следующий закон распределения выигрыша:

…наверное, вы давно мечтали о таких задачах:) Открою секрет – я тоже. В особенности после того, как завершил работу над теорией поля .

Решение : так как случайная величина может принять только одно из трёх значений, то соответствующие события образуют полную группу , а значит, сумма их вероятностей равна единице:

Разоблачаем «партизана»:

– таким образом, вероятность выигрыша условных единиц составляет 0,4.

Контроль: , в чём и требовалось убедиться.

Ответ :

Не редкость, когда закон распределения требуется составить самостоятельно. Для этого используют классическое определение вероятности , теоремы умножения / сложения вероятностей событий и другие фишки тервера :

Пример 2

В коробке находятся 50 лотерейных билетов, среди которых 12 выигрышных, причём 2 из них выигрывают по 1000 рублей, а остальные – по 100 рублей. Составить закон распределения случайной величины – размера выигрыша, если из коробки наугад извлекается один билет.

Решение : как вы заметили, значения случайной величины принято располагать в порядке их возрастания . Поэтому мы начинаем с самого маленького выигрыша, и именно рублей.

Всего таковых билетов 50 – 12 = 38, и по классическому определению :
– вероятность того, что наудачу извлечённый билет окажется безвыигрышным.

С остальными случаями всё просто. Вероятность выигрыша рублей составляет:

Проверка: – и это особенно приятный момент таких заданий!

Ответ : искомый закон распределения выигрыша:

Следующее задание для самостоятельного решения:

Пример 3

Вероятность того, что стрелок поразит мишень, равна . Составить закон распределения случайной величины – количества попаданий после 2 выстрелов.

…я знал, что вы по нему соскучились:) Вспоминаем теоремы умножения и сложения . Решение и ответ в конце урока.

Закон распределения полностью описывает случайную величину, однако на практике бывает полезно (а иногда и полезнее) знать лишь некоторые её числовые характеристики .

Математическое ожидание дискретной случайной величины

Говоря простым языком, это среднеожидаемое значение при многократном повторении испытаний. Пусть случайная величина принимает значения с вероятностями соответственно. Тогда математическое ожидание данной случайной величины равно сумме произведений всех её значений на соответствующие вероятности:

или в свёрнутом виде:

Вычислим, например, математическое ожидание случайной величины – количества выпавших на игральном кубике очков:

Теперь вспомним нашу гипотетическую игру:

Возникает вопрос: а выгодно ли вообще играть в эту игру? …у кого какие впечатления? Так ведь «навскидку» и не скажешь! Но на этот вопрос можно легко ответить, вычислив математическое ожидание, по сути – средневзвешенный по вероятностям выигрыш:

Таким образом, математическое ожидание данной игры проигрышно .

Не верь впечатлениям – верь цифрам!

Да, здесь можно выиграть 10 и даже 20-30 раз подряд, но на длинной дистанции нас ждёт неминуемое разорение. И я бы не советовал вам играть в такие игры:) Ну, может, только ради развлечения .

Из всего вышесказанного следует, что математическое ожидание – это уже НЕ СЛУЧАЙНАЯ величина.

Творческое задание для самостоятельного исследования:

Пример 4

Мистер Х играет в европейскую рулетку по следующей системе: постоянно ставит 100 рублей на «красное». Составить закон распределения случайной величины – его выигрыша. Вычислить математическое ожидание выигрыша и округлить его до копеек. Сколько в среднем проигрывает игрок с каждой поставленной сотни?

Справка : европейская рулетка содержит 18 красных, 18 чёрных и 1 зелёный сектор («зеро»). В случае выпадения «красного» игроку выплачивается удвоенная ставка, в противном случае она уходит в доход казино

Существует много других систем игры в рулетку, для которых можно составить свои таблицы вероятностей. Но это тот случай, когда нам не нужны никакие законы распределения и таблицы, ибо доподлинно установлено, что математическое ожидание игрока будет точно таким же. От системы к системе меняется лишь

Министерство образования и науки РФ

Череповецкий государственный университет

Инженерно-экономический институт

Понятие случайного процесса в математике

Выполняла студентка

группы 5 ГМУ-21

Иванова Юлия

Череповец


Введение

Основная часть

· Определение случайного процесса и его характеристики

· Марковские случайные процессы с дискретными состояниями

· Стационарные случайные процессы

· Эргодическое свойство стационарных случайных процессов

Литература


Введение

Понятие случайного процесса введено в XX столетии и связано с именами А.Н. Колмогорова (1903-1987), А.Я. Хинчина (1894-1959), Е.Е. Слуцкого (1880-1948), Н. Винера (1894-1965).

Это понятие в наши дни является одним из центральных не только в теории вероятностей, но также в естествознании, инженерном деле, экономике, организации производства, теории связи. Теория случайных процессов принадлежит к категории наиболее быстро развивающихся математических дисциплин. Несомненно, что это обстоятельство в значительной мере определяется ее глубокими связями с практикой. XX век не мог удовлетвориться тем идейным наследием, которое было получено от прошлого. Действительно, в то время, как физика, биолога, инженера интересовал процесс, т.е. изменение изучаемого явления во времени, теория вероятностей предлагала им в качестве математического аппарата лишь средства, изучавшие стационарные состояния.

Для исследования изменения во времени теория вероятностей конца XIX - начала XX века не имела ни разработанных частных схем, ни тем более общих приемов. А необходимость их создания буквально стучала в окна и двери математической науки. Изучение броуновского движения в физике подвело математику к порогу создания теории случайных процессов.

Считаю необходимым упомянуть еще о двух важных группах исследований, начатых в разное время и по разным поводам.

Во-первых, эта работы А.А. Маркова (1856-1922) по изучению цепных зависимостей. Во-вторых, работы Е.Е. Слуцкого (1880-1948) по теории случайных функций.

Оба этих направления играли очень существенную роль в формировании общей теории случайных процессов.

Для этой цели уже был накоплен значительный исходный материал, и необходимость построения теории как бы носились в воздухе.

Оставалось осуществить глубокий анализ имеющихся работ, высказанных в них идей и результатов и на его базе осуществить необходимый синтез.


Определение случайного процесса и его характеристики

Определение : Случайным процессом X(t) называется процесс, значение которого при любом значении аргумента t является случайной величиной.

Другими словами, случайный процесс представляет собой функцию, которая в результате испытания может принять тот или иной конкретный вид, неизвестный заранее. При фиксированном t=t 0 X(t 0) представляет собой обычную случайную величину, т.е. сечение случайного процесса в момент t 0.

Примеры случайных процессов:

1. численность населения региона с течением времени;

2. число заявок, поступающих в ремонтную службу фирмы, с течением времени.

Случайный процесс можно записать в виде функции двух переменных X(t,ω), где ω€Ω, t€T, X(t, ω) € ≡ и ω – элементарное событие, Ω - пространство элементарных событий, Т – множество значений аргумента t, ≡ - множество возможных значений случайного процесса X(t, ω).

Реализацией случайного процесса X(t, ω) называется неслучайная функция x(t), в которую превращается случайный процесс X(t) в результате испытания (при фиксированном ω), т.е. конкретный вид, принимаемый случайным процессом X(t), его траектория.

Таким образом, случайный процесс X(t, ω) совмещает в себе черты случайной величины и функции. Если зафиксировать значение аргумента t, случайный процесс превращается в обычную случайную величину, если зафиксировать ω, то в результате каждого испытания он превращается в обычную неслучайную функцию. В дальнейшем изложении опустим аргумент ω, но он будет подразумеваться по умолчанию.

На рисунке 1 изображено несколько реализаций некоторого случайного процесса. Пусть сечение этого процесса при данном t является непрерывной случайной величиной. Тогда случайный процесс X(t) при данном t определяется полностью вероятности φ(x‚ t). Очевидно, что плотность φ(x, t) не является исчерпывающим описанием случайного процесса X(t), ибо она не выражает зависимости между его сечениями в разные моменты времени.

Случайный процесс X(t) представляет собой совокупность всех сечений при всевозможных значений t, поэтому для его описания необходимо рассматривать многомерную случайную величину (X(t 1), X(t 2), …, X(t n)), состоящей из всех сочетаний этого процесса. В принципе таких сочетаний бесконечно много, но для описания случайного процесса удаётся часть обойтись относительно небольшим количеством сочетаний.

Говорят, что случайный процесс имеет порядок n , если он полностью определяется плотностью совместного распределения φ(x 1, x 2 , …, x n ; t 1 , t 2 , …, t n) n произвольных сечений процесса, т.е. плотностью n-мерной случайной величины (X(t 1), X(t 2), …, X(t n)), где X(t i) – сочетание случайного процесса X(t) в момент времени t i , i=1, 2, …, n.

Как и случайная величина, случайный процесс может быть описан числовыми характеристиками. Если для случайной величины эти характеристики являются постоянными числами, то для случайного процесса – неслучайными функциями.

Математическим ожиданием случайного процесса X(t) называется неслучайная функция a x (t), которая при любом значении переменной t равна математическому ожиданию соответствующего сечения случайного процесса X(t), т.е. a x (t)=М .

Дисперсией случайного процесса X(t) называется неслучайная функция D x (t), при любом значении переменной t равная дисперсии соответствующего сочетания случайного процесса X(t), т.е. D x (t)= D.

Средним квадратическим отклонением σ x (t) случайного процесса X(t) называется арифметическое значение корня квадратного из его дисперсии, т.е. σ x (t)= D x (t).

Математическое ожидание случайного процесса характеризует среднюю траекторию всех возможных его реализаций, а его дисперсия или среднее квадратическое отклонение - разброс реализаций относительно средней траектории.

Введённых выше характеристик случайного процесса оказывается недостаточно, так как они определяются только одномерным законом распределения. Если для случайного процесса Х 1 (t) характерно медленное изменение значений реализаций с изменением t, то для случайного процесса Х 2 (t) это изменение проходит значительно быстрее. Другими словами, для случайного процесса Х 1 (t) характерна тесная вероятностная зависимость между двумя его сочетаниями Х 1 (t 1) и Х 1 (t 2), в то время как для случайного процесса Х 2 (t) эта зависимость между сочетаниями Х 2 (t 1) и Х 2 (t 2) практически отсутствует. Указанная зависимость между сочетаниями характеризуется корреляционной функцией.

Определение: Корреляционной функцией случайного процесса Х(t) называется неслучайная функция

K x (t 1 , t 2) = M[(X(t 1) – a x (t 1))(X(t 2) – a x (t 2))] (1.)

двух переменных t 1 и t 2 , которая при каждой паре переменных t 1 и t 2 равна ковариации соответствующих сочетаний Х(t 1) и Х(t 2) случайного процесса.

Очевидно, для случайного процесса Х(t 1) корреляционная функция K x 1 (t 1 , t 2) убывает по мере увеличения разности t 2 - t 1 значительно медленнее, чем K x 2 (t 1 , t 2) для случайного процесса Х(t 2).

Корреляционная функция K x (t 1 , t 2) характеризует не только степень тесноты линейной зависимости между двумя сочетаниями, но и разброс этих сочетаний относительно математического ожидания a x (t). Поэтому рассматривается также нормированная корреляционная функция случайного процесса.

Нормированной корреляционной функцией случайного процесса Х(t) называется функция:

P x (t 1 , t 2) = K x (t 1 , t 2) / σ x (t 1)σ x (t 2) (2)

Пример № 1

Случайный процесс определяется формулой X(t) = X cosωt, где Х – случайная величина. Найти основные характеристики этого процесса, если М(Х) = а, D(X) = σ 2 .

РЕШЕНИЕ:

На основании свойств математического ожидания и дисперсии имеем:

a x (t) = M(X cosωt) = cosωt * M(X) = a cosωt,

D x (t) = D(X cosωt) = cos 2 ωt * D(X) = σ 2 cos 2 ωt.

Корреляционную функцию найдём по формуле (1.)

K x (t 1 , t 2) = M[(X cosωt 1 – a cosωt 1) (X cos ωt 2 – a cosωt 2)] =

Cosωt 1 cosωt 2 * M[(X – a)(X - a)] = cosωt 1 cosωt 2 * D(X) = σ 2 cosωt 1 cosωt 2 .

Нормированную корреляционную функцию найдём по формуле (2.):

P x (t 1 , t 2) = σ 2 cosωt 1 cosωt 2 / (σ cosωt 1)(σ cosωt 2) ≡ 1.

Случайные процессы можно классифицировать в зависимости от того, плавно или скачкообразно меняются состояния системы, в которой они протекают, конечно (счетно) или бесконечно множество этих состояний и т.п. Среди случайных процессов особое место принадлежит Марковскому случайному процессу.

Теорема. Случайный процесс X(t) является гильбертовым тогда и только тогда, когда существует R(t, t^) для всех (t, t^)€ T*T.

Теорию гильбертовых случайных процессов называют корреляционной.

Заметим, множество Т может быть дискретным и континуальным. В первом случае случайный процесс Х t называют процессом с дискретным временем, во втором – с непрерывным временем.

Соответственно сочетания Х t могут быть дискретными и непрерывными случайными величинами.

Случайный процесс называется Х(t) выборочно неправильным, дифференцируемым и интегрируемым в точке ω€Ω, если его реализация x(t) = x(t, ω) соответственно непрерывна, дифференцируема и интегрируема.

Случайный процесс Х(t) называется непрерывным: почти, наверное, если

P(A)=1, A = {ω € Ω : lim x(t n) = x(t)}

В среднем квадратическом, если

Lim M[(X(t n) – X(t)) 2 ] = 0

По вероятности , если

Aδ ≥ 0: lim P[| X(t n) – X(t)| > δ] = 0

Сходимость в среднем квадратическом обозначают также:

X(t) = lim X(t n)

Оказывается, из выборочной непрерывности следует непрерывность почти наверное, из непрерывности почти наверное и в среднем квадратическом следует непрерывность по вероятности.

Теорема. Если X(t) – гильбертов случайный процесс, непрерывный в среднем квадратическом, то m x (t) – непрерывная функция и имеет место соотношение

Lim M = M = M .

Теорема. Гильбертов случайный процесс X(t) непрерывен в среднем квадратическом тогда и только тогда, когда непрерывна его ковариационная функция R(t, t^) в точке (t, t).

Гильбертов случайный процесс X(t) называется дифференцируемым в среднем квадратическом, если существует случайная функция X(t) = dX(t)/dt такая, что

X(t) = dX(t)/ dt = lim X(t+∆t) – X(t) / ∆t

(t € T, t +∆t € T),

т.е. когда

Lim M [((X(t + ∆t) – X(t) / (∆t)) – X(t)) 2 ] = 0

Случайную функцию X(t) будем называть производной в среднем квадратическом случайного процесса X(t) соответственно в точке t или на T.

Теорема. Гильбертов случайный процесс X(t) дифференцируем в среднем квадратическом в точке t тогда и только тогда, когда существует

δ 2 R(t, t^) / δtδt^ в точке (t, t^). При этом:

R x (t, t^) = M = δ 2 R(t, t^) / δtδt^.

Если гильбертов случайный процесс дифференцируем на Т, то его производная в среднем квадратическом также является гильбертовым случайным процессом; если выборочные траектории процесса дифференцируемы на Т с вероятностью 1, то с вероятностью 1 их производные совпадают с производными в среднем квадратическом на Т.

Теорема. Если X(t) - гильбертов случайный процесс, то

M = (d / dt) M = dm x (t) / dt.

Пусть (0, t) – конечный интервал, 0

X(t) - гильбертов случайный процесс.

Y n = ∑ X(t i)(t i – t i-1) (n = 1,2, …).

Тогда случайная величина

max (t i – t i -1)→0

Называется интегралом в среднем квадратическом процесса X(t) на (0, t) и обозначается:

Y(t) = ∫ X(τ)dτ.

Теорема . Интеграл Y(t) в среднем квадратическом существует тогда и только тогда, когда ковариационная функция R(t, t^) гильбертова процесса X(t) непрерывна на Т×Т и существует интеграл

R y (t, t^) = ∫ ∫ R(τ, τ^) dτdτ^

Если интеграл в среднем квадратическом функции X(t) существует, то

M = ∫ Mdτ,

R Y (t, t^) = ∫ ∫ R(τ, τ^)dτdτ^

K y (t, t^) = ∫ ∫ K(τ, τ^)dτdτ^

Здесь R y (t, t^) = M, K y (t, t^) = M – ковариационная и корреляционная функции случайного процесса Y(t).

Теорема. Пусть X(t) – гильбертов случайный процесс с ковариационной функцией R(t, t^), φ(t) – вещественная функция и существует интеграл

∫ ∫ φ(t)φ(t^)R(t, t^)dtdt^

Тогда существует в среднем квадратическом интеграл

∫ φ(t)X(t)dt.

Случайные процессы:

X i (t) = V i φ i (t) (i = 1n)

Где φ i (t) – заданные вещественные функции

V i - случайные величины с характеристиками

Называют элементарными.

Каноническим разложением случайного процесса X(t) называют его представление в виде

Где V i – коэффициенты, а φ i (t) – координатные функции канонического разложения процесса X(t).

Из отношений:

M(V I = 0), D(V I) = D I , M(V i V j) = 0 (i ≠ j)

X(t) = m x (t) + ∑ V i φ i (t) (t € T)

K(t, t^) = ∑ D i φ i (t)φ i (t^)

Эту формулу называют каноническим разложением корреляционной функции случайного процесса.

В случае уравнения

X(t) = m x (t) + ∑ V i φ i (t) (t € T)

Имеют место формулы:

X(t) = m x (t) + ∑ V i φ(t)

∫ x(τ)dt = ∫ m x (τ)dτ + ∑ V i ∫ φ i (t)dt.

Таким образом, если процесс X(t) представлен его каноническим разложением, то производная и интеграл от него также могут быть представлены в виде канонических разложений.

Марковские случайные процессы с дискретными состояниями

Случайный процесс, протекающий в некоторой системе S с возможными состояниями S 1 , S 2 , S 3 , …, называется Марковским , или случайным процессом без последствия , если для любого момента времени t 0 вероятные характеристики процесса в будущем (при t>t 0) зависит только от его состояния в данный момент t 0 и не зависят от того, когда и как система пришла в это состояние; т.е. не зависят от её поведения в прошлом (при t

Примером Марковского процесса: система S – счётчик в такси. Состояние системы в момент t характеризуется числом километров (десятых долей километров), пройденных автомобилем до данного момента. Пусть в момент t 0 счётчик показывает S 0 / Вероятность того, что в момент t>t 0 счётчик покажет то или иное число километров (точнее, соответствующее число рублей) S 1 зависит от S 0 , но не зависит от того, в какие моменты времени изменились показания счётчика до момента t 0 .

Многие процессы можно приближенно считать Марковскими. Например, процесс игры в шахматы; система S – группа шахматных фигур. Состояние системы характеризуется числом фигур противника, сохранившихся на доске в момент t 0 . Вероятность того, что в момент t>t 0 материальный перевес будет на стороне одного из противников, зависит в первую очередь от того, в каком состоянии находится система в данный момент t 0, а не от того, когда и в какой последовательности исчезли фигуры с доски до момента t 0 .

В ряде случаев предысторией рассматриваемых процессов можно просто пренебречь и применять для их изучения Марковские модели.

Марковским случайным процессом с дискретными состояниями и дискретным временем (или цепью Маркова) называется Марковский процесс, в котором его возможные состояния S 1 , S 2 , S 3, … можно заранее перечислить, а переход из состояния в состояние происходит мгновенно (скачком), но только в определённые моменты времени t 0, t 1, t 2, ..., называемые шагами процесса.

Обозначим p ij – вероятность перехода случайного процесса (системы S) из состояния I в состояние j. Если эти вероятности не зависят от номера шага процесса, то такая цепь Маркова называется однородной.

Пусть число состояний системы конечно и равно m. Тогда её можно характеризовать матрицей перехода P 1 , которая содержит все вероятности перехода:

p 11 p 12 … p 1m

p 21 p 22 … p 2m

P m1 p m2 … p mm

Естественно, по каждой строке ∑ p ij = 1, I = 1, 2, …, m.

Обозначим p ij (n) – вероятностью того, что в результате n шагов система перейдёт из состояния I в состояние j. При этом при I = 1 имеем вероятности перехода, образующие матрицу P 1 , т.е. p ij (1) = p ij

Необходимо, зная вероятности перехода p ij , найти p ij (n) – вероятности перехода системы из состояния I в состояние j за n шагов. С этой целью будем рассматривать промежуточное (между I и j) состояние r, т.е. будем считать, что из первоначального состояния I за k шагов система перейдёт в промежуточное состояние r с вероятностью p ir (k), после чего за оставшиеся n-k шагов из промежуточного состояния r она перейдёт в конечное состояние j с вероятностью p rj (n-k). Тогда по формуле полной вероятности

P ij (n) = ∑ p ir (k) p rj (n-k) – равенство Маркова.

Убедимся в том, что, зная все вероятности перехода p ij = p ij (1), т.е. матрицу P 1 перехода из состояния в состояние за один шаг, можно найти вероятность p ij (2), т.е. матрицу P 2 перехода из состояния в состояние за два шага. А зная матрицу P 2 , - найти матрицу P 3 перехода из состояния в состояние за три шага, и т.д.

Действительно, полагая n = 2 в формуле P ij (n) = ∑ p ir (k) p rj (n-k), т.е. k=1 (промежуточное между шагами состояние), получим

P ij (2) = ∑ p ir (1)p rj (2-1) = ∑ p ir p rj

Полученное равенство означает, что P 2 =P 1 P 1 = P 2 1

Полагая n = 3, k = 2, аналогично получим P 3 = P 1 P 2 = P 1 P 1 2 = P 1 3 , а в общем случае P n = P 1 n

Пример

Совокупность семей некоторого региона можно разделить на три группы:

1. семьи, не имеющие автомобиля и не собирающиеся его покупать;

2. семьи, не имеющие автомобиля, но намеревающиеся его приобрести;

3. семьи, имеющие автомобиль.

Проведённое статистическое обследование показало, что матрица перехода за интервал в один год имеет вид:

(В матрице P 1 элемент р 31 = 1 означает вероятность того, что семья, имеющая автомобиль, также будет его иметь, а, например, элемент р 23 = 0,3 – вероятность того, что семья, не имевшая автомобиля, но решившая его приобрести, осуществит своё намерение в следующем году, и т.д.)

Найти вероятность того, что:

1. семья, не имевшая автомобиля и е собиравшаяся его приобрести, будет находиться в такой же ситуации через два года;

2. семья, не имевшая автомобиля, но намеревающаяся его приобрести, будет иметь автомобиль через два года.

РЕШЕНИЕ: найдём матрицу перехода Р 2 через два года:

0,8 0,1 0,1 0,8 0,1 0,1 0,64 0,15 0,21

0 0,7 0,3 0 0,7 0,3 0 0,49 0,51

0 0 1 0 0 1 0 0 1

То есть искомые в примере 1) и 2) вероятности равны соответственно

р 11 =0,64, р 23 =0,51

Далее рассмотрим Марковский случайный процесс с дискретными состояниями и непрерывным временем, в котором, в отличие от рассмотренной выше цепи Маркова, моменты возможных переходов системы из состояния не фиксированы заранее, а случайны.

При анализе случайных процессов с дискретными состояниями удобно пользоваться геометрической схемой – так называемым графиком событий . Обычно состояния системы изображаются прямоугольниками (кружками), а возможные переходы из состояния в состояние – стрелками (ориентированными дугами), соединяющими состояния.

Пример. Построить граф состояний следующего случайного процесса: устройство S состоит из двух узлов, каждый из которых в случайный момент времени может выйти из строя, после чего мгновенно начинается ремонт узла, продолжающийся заранее неизвестное случайное время.

РЕШЕНИЕ. Возможные состояния системы: S 0 – оба узла исправны; S 1 – первый узел ремонтируется, второй исправен; S 2 – второй узел ремонтируется, первый исправен; S 3 – оба узла ремонтируются.

Стрелка, направления, например, из S 0 в S 1 , означает переход системы в момент отказ первого узла, из S 1 в S 0 – переход в момент окончания ремонта этого узла.

На графе отсутствуют стрелки из S 0 в S 3 и из S 1 в S 2 . Это объясняется тем, что выходы узлов из строя предполагается независимыми друг от друга и, например, вероятностями одновременного выхода из строя двух узлов (переход из S 0 в S 3) или одновременного окончания ремонтов двух узлов (переход из S 3 в S 0) можно пренебречь.

Стационарные случайные процессы

стационарным в узком смысле , если

F(x 1 , …, x n ; t 1 , …, t n) = F(x 1 , …, x n ; t 1 +∆, …, t n +∆)

При произвольных

n≥1, x 1 , …, x n , t 1 , …, t n ; ∆; t 1 € T, t i + ∆ € T.

Здесь F(x 1 , …, x n ; t 1 , …, t n) – n-мерная функция распределения случайного процесса Х(t).

Случайный процесс Х(t) называют стационарным в широком смысле , если

Очевидно, что из стационарности в узком смысле следует стационарность в широком смысле.

Из формул:

m(t) = m(t + ∆), K(t, t^) = K(t + ∆, t^ + ∆)

(t € T, t^ € T, t + ∆€ T), t^ + ∆€ T)

Следует, что для процесса, стационарного в широком смысле, можно записать

m (t) = m x (0) = const;

D (t) = K(t, t) = K(0,0) = const;

K(t, t^) = K(t – t^, 0) = K (0, t^ - t)

Таким образом, для процесса, стационарного в широком смысле, математическое ожидание и дисперсия не зависят от времени, а K(t, t^) представляет собою функцию вида:

Видно, что k(τ) – чётная функция, при этом

Здесь D – дисперсия стационарного процесса

Х(t), α i (I = 1, n) – произвольные числа.

Первое равенство системы

K(0) = В = σ 2 ; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0

следует из уравнения K(t, t^) = k(τ) = k(-τ), τ = t^ – t. Первое равенство

K(0) = В = σ 2 ; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0 - простое следствие неравенства Шварца для сечений X(t), X(t^) стационарного случайного процесса X(t). Последнее неравенство:

K(0) = В = σ 2 ; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0

Получают следующим образом:

∑ ∑ α i α j k(t i - t j) = ∑ ∑ K(t i , t j)α i α j = ∑ ∑ M[(α i X i)(α j X j)] = M[(∑ α i X i) 2 ] ≥0

Учитывая формулу корреляционной функции производной dX(t)/dt случайного процесса, для стационарной случайной функции X(t) получим

K 1 (t, t^) = M[(dX(t)/dt)*(dX(t^)/dt^)] = δ 2 K(t, t^) / δtδt^ = δ 2 k(t^ - t) / δtδt^

Поскольку

δk(t^ - t) / δt = (δk(τ) / δτ) * (δτ / δτ) = - δk(τ) / δτ,

δ 2 k(t^ - t) / δtδt^ = - (δ 2 k(τ) / δτ 2) * (δτ / δt^) = - (δ 2 k(τ) / δτ 2)

то K 1 (t, t^) = k 1 (τ) = - (δ 2 k(τ) / δτ 2), τ = t^ – t.

Здесь K 1 (t, t^) и k 1 (τ) – корреляционная функция первой производной стационарного случайного процесса X(t).

Для n-й производной стационарного случайного процесса формула корреляционной функции имеет вид:

K n (τ) = (-1) n * (δ 2 n *k(τ) / δτ 2 n)

Теорема. Стационарный случайный процесс X(t) с корреляционной функцией k(τ) непрерывен в среднем квадратическом в точке t € T тогда и только тогда, когда

Lim k(τ) = k(0)

Для доказательства запишем очевидную цепочку равенств:

M [|X(t+τ)-X(T)| 2 ] = M[|X(t)| 2 ] – 2M[|X(t+τ)X(t)|] + M =

2D-2k(τ) = 2.

Отсюда очевидно, что условие непрерывности в среднем квадратическом процесса X(t) в точке t € T

Lim M[|X(t+τ) – X(t)| 2 ] = 0

Имеет место тогда и только тогда, когда выполняется Lim k(τ) = k(0)

Теорема. Если корреляционная функция k(τ) стационарного случайного процесса X(t) непрерывна в среднем квадратическом в точке τ=0, то она непрерывна в среднем квадратическом в любой точке τ € R 1 .

Для доказательства запишем очевидные равенства:

k(τ+∆τ)-k(τ) = M – M =

M{X(t)}

Затем, применяя неравенство Шварца к сомножителям в фигурной скобке и учитывая соотношения:

K(t, t^) = k(τ) = k(-τ), τ = t^ – t.

K(0) = В = σ 2 ; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0

0 ≤ 2 ≤ MM[|X(t+τ+∆τ)-X(t+τ)| 2 ] =

Переходя к пределу при ∆τ→0 и принимая во внимание условие теоремы о непрерывности k(τ) в точке τ=0, а также первое равенство системы

K(0) = В = σ 2 , найдём

Lim k(τ+∆τ) = k(τ)

Поскольку здесь τ – произвольное число, теорему следует считать доказанной.

Эргодическое свойство стационарных случайных процессов

Пусть Х(t) - стационарный случайный процесс на отрезке времени с характеристиками

τ = t^ – t, (t, t^) € T×T.

Эргодическое свойство стационарного случайного процесса заключается в том, что по достаточно длительной реализации процесса можно судить о его математическом ожидании, дисперсии, корреляционной функции.

Более строго стационарный случайный процесс Х(t) будем называть эргодическим по математическому ожиданию, если

Lim M {|(1 / T)∫ X(t)dt| 2 } = 0

Теорема

Стационарный случайный процесс Х(t) с характеристиками:

M = 0, K(t, t^) = M = k(τ),

τ = t^ – t, (t, t^) € T×T

является эргодическим по математическому ожиданию тогда и только тогда, когда

Lim (2 / T) ∫ k(τ) (1 – τ/t)dτ = 0.

Для доказательства, очевидно, достаточно убедиться, что справедливо равенство

Запишем очевидные соотношения

C = M {|(1 / T)) ∫X(t)dt| 2 } = (1 / T 2) ∫ ∫ k(t^ - t)dt^dt = (1/T) ∫ dt ∫ k(t^ - t)dt^.

Полагая здесь τ = t^ – t, dτ = dt^ и учитывая условия (t^ = T) → (τ = T - t),

(t^ = 0)→(τ = -t), получим

С = (1/T 2) ∫ dt ∫ k(τ)dτ = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(τ)dτ =

= -(1/T 2) ∫ dt ∫ k(τ)dτ - (1/T 2) ∫ dt ∫ k(τ)dτ

Полагая в первом и втором слагаемых правой части этого равенства соответственно τ = -τ^, dτ = -dτ^, τ = T-τ^, dτ = -dτ^, найдем

С = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(T - τ)dτ

Применяя формулу Дирихле для двойных интегралов, запишем

С = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(T - τ)dτ = (1/T 2) ∫ (T - τ) k(τ)dτ + (1/T 2) ∫ τk (T – τ)dτ

Во втором слагаемом правой части можно положить τ^ = T-τ, dτ = -dτ^, после чего будем иметь

Отсюда и из определения констант видно, что равенство

M{(1 / T) ∫X(t)dt| 2 } = (2 / T) ∫ k(τ) (1 – τ/t)dτ

Справедливо.

Теорема

Если корреляционная функция k(τ) стационарного случайного процесса X(t) удовлетворяет условию

Lim (1/T) ∫ |k(τ)| dt = 0

То X(t) является эргодическим по математическому ожиданию.

Действительно, учитывая соотношение

M{(1 / T) ∫X(t)dt| 2 } = (2 / T) ∫ k(τ) (1 – τ/t)dτ

Можно записать

0 ≤ (2/Т) ∫ (1 – τ/t) k(τ)dτ ≤ (2/T) ∫ (1- τ/t) |k(τ)|dτ ≤ (1/T) ∫ |k(τ)|dτ

Отсюда видно, что если выполнено условие, то

Lim (2/T) ∫ (1 – τ/T) k(τ)dτ = 0

Теперь, принимая во внимание равенство

С = (1/Т 2) ∫ (Т - τ) k(τ)dτ – (1/T 2) ∫ (T - τ) k(τ)dτ = 2/T ∫ (1- (τ/T)) k(τ)dτ

И условие Lim M {|(1 / T)∫ X(t)dt| 2 } = 0

Эргодичности по математическому ожиданию стационарного случайного процесса X(t), находим, что требуемое доказано.

Теорема.

Если корреляционная функция k(τ) стационарного случайного процесса

X(t) интегрируема и неограниченно убывает при τ → ∞, т.е. выполняется условие

При произвольном ε > 0, то X(t) – эргодический по математическому ожиданию стационарный случайный процесс.

Действительно, учитывая выражение

Для Т≥Т 0 имеем

(1/T) ∫ |k(τ)|dτ = (1/T)[ ∫ |k(τ)|dτ + ∫ |k(τ)|dτ ≤ (1/T) ∫ |k(τ)|dτ ε(1 – T 1 /T).

Переходя к пределу при Т → ∞, найдём

0 ≤ lim ∫ |k(τ)|dτ = ε.

Поскольку здесь ε > 0 – произвольная, сколько угодно малая величина, то выполняется условие эргодичности по математическому ожиданию. Поскольку это следует из условия

О неограниченном убывании k(τ), то теорему следует считать доказанной.

Доказанные теоремы устанавливают конструктивные признаки эргодичности стационарных случайных процессов.

X(t) = m + X(t), m=const.

Тогда M = m, и если X(t) - эргодический стационарный случайный процесс, то условие эргодичности Lim M {|(1 / T)∫ X(t)dt| 2 } = 0 после несложных преобразований можно представить в виде

Lim M{[(1/T) ∫ X(t)dt – m] 2 } = 0

Отсюда следует, что если X(t) – эргодический по математическому ожиданию стационарный случайный процесс, то математическое ожидание процесса X(t) = m + X(t) приближенно может быть вычислено по формуле

M = (1/T) ∫ x(t)dt

Здесь Т – достаточно длительный промежуток времени;

x(t) – реализация процесса X(t) на отрезке времени .

Можно рассматривать эргодичность стационарного случайного процесса X(t) по корреляционной функции.

Стационарный случайный процесс X(t) называется эргодическим по корреляционной функции , если

Lim M {[ (1/T) ∫ X(t) X(t + τ)dt – k(τ)] 2 ]} = 0

Отсюда следует, что для эргодического по корреляционной функции стационарного случайного процесса X(t) можно положить

k (τ) = (1/T) ∫ x(t)x(t + τ)dt

при достаточно большом Т.

Оказывается, условие

ограниченности k(τ) достаточно для эргодичности по корреляционной функции стационарного нормально распределенного процесса X(t).

Заметим, случайный процесс называется нормально распределённым , если любая его конечномерная функция распределения является нормальной.

Необходимым и достаточным условием эргодичности стационарного нормально распределенного случайного процесса является соотношение

τ 0: lim (1/T) ∫ (1 – τ/T)dτ = 0


Литература

1. Н.Ш. Кремер «Теория вероятностей и математическая статистика» / ЮНИТИ / Москва 2007.

2. Ю.В. Кожевников «Теория вероятностей и математическая статистика» /Машиностроение/ Москва 2002.

3. Б.В. Гнеденко «Курс теории вероятностей» /Главная редакция физико-математической литературы/ Москва 1988.

Здесь, коротко рассмотрим основные вопросы систематизации (классификации) случайных процессов.

Случайный процесс, протекающий (проходящей) в любой физической системе , представляет собой случайные переходы системы из одного состояния в другое. В зависимости от множества этих состояний
от множествазначений аргументавсе случайные процессы делят на классы (группы):

1. Дискретный процесс (дискретное состояние) с дискретным временем.

2. Дискретный процесс с непрерывным временем.

3. Непрерывный процесс (непрерывное состояние) с дискретным временем.

4. Непрерывный процесс с непрерывным временем.

В 1-м 3-м случаях множестводискретно, т.е. аргументпринимает дискретные значения
обычно
в 1-м случае множество значений случайной функции
определяются равенствами:, является дискретное множество
(множество
конечно или счетное).

В третьем случае множество
несчётно, т.е. сечение случайного процесса в любой момент временипредставляет собой непрерывную случайную величину.

Во 2-м и 4-м случаях множество непрерывно, во втором случае множество состояний системы
конечно или счетное, а в четвёртом случае множество
несчётное.

Приведём некоторые примеры случайных процессов 1-4 классов соответственно:

1. Хоккеист может забить или не забить один или несколько шайб в ворота соперника во время матчей, проводимых в определенные моменты (согласно расписанию игр) времени

Случайный процесс
есть число забитых шайб до момента.

2. Случайный процесс
- количество просмотренных фильмов в кинотеатре «Звезда»

от начала работы кинотеатра до момента времени .

3. В определённые моменты времени
измеряется температура
больного в некотором лечебном центре.
- является случайный процесс непрерывного типа с дискретным временем.

4. Показатель уровня влажности воздуха в течение сутки в городе А.

Можно рассматривать и другие более сложные классы случайных процессов. Для каждого класса случайных процессов разрабатываются соответствующие методы их изучения.

Можно найти ряд разнообразные и интересные примеры случайных потоков в учебниках , [В. Феллер, ч 1,2 ] и в монографии . Здесь мы на этом ограничимся.

Для случайных процессов также вводятся простеющие функциональные характеристики, зависящие от параметра , аналогичные основным числовым характеристикам случайных величин.

Знание этих характеристик, достаточно для решения многих задач (напомним, что полная характеристика случайного процесса даётся её многомерным (конечномерным) законом распределения.

В отличие числовых характеристик случайных величин в общем случае функциональные характеристики представляют собой определённые функции.

4. Математическое ожидание и дисперсия случайного процесса

Математическим ожиданием случайного процесса

определённая при любом фиксированном значении аргументаравна математическому ожиданию соответствующего сечения случайного процесса:

(12)
.

Для краткого обозначения математического ожидания с.п. применяют также обозначение
.

Функция
характеризует поведение случайного процесса в среднем. Геометрический смысл математического ожидания
истолковывается как «средняя кривая», около которой расположены кривые-реализации (см. рис. 60).

(см. рис. 60 Письм.).

На основании свойства математического ожидания случайной величины и учитывая, что
случайный процесс, а
неслучайная функция, получаемсвойства математического ожиданияслучайного процесса:

1. Математическое ожидание неслучайной функции равно самой функции:
.

2. Неслучайный множитель (неслучайную функцию) можно выносить за знак математического ожидания случайного процесса, т.е..

3. Математическое ожидание суммы (разности) двух случайных процессов равно сумме

(разности) математических ожиданий слагаемых, т.е.

Отметим, что если зафиксируем аргумент (параметр) , то переходим от случайного процесса к случайной величине (т.е. переходим к сечению случайного процесса), можно найти м.о. этого процесса при этом фиксированном

Поскольку, если сечение с.п.
при заданноместь непрерывная с.в. с плотностью
то его математическое ожидание можно вычислить по формуле

(13)
.

Пример 2. Пусть с.п. определяется формулой, т.е.
с.в.,


Найти математического ожидания случайного процесса

Решение. Посвойству 2. имеем

так как
и следовательно,
.

Упражнение. Вычислить математическое ожидание воспользуюсь, равенствами

,
,

а затем на основании формулы (13) вычислить интеграл и убедиться, что результат будет тот же самый.

Указание. Воспользоваться равенством

.

Дисперсия случайного процесса.

Дисперсией случайного процесса
называется неслучайная функция

Дисперсия
с.п. рассматривается, также характеризуют разброс (рассеяние) возможных значений с.п. относительно его математического ожидания.

Наряду с дисперсией с.п. рассматривается также среднее квадратическое отклонение

(коротко с.к.о.), которое определяется равенством

(15)

Размерность функции
равна размерности с.п.
.

Значения реализаций с.п. при каждом отклоняется от математического ожидания
на величину порядка
(см. рис 60).

Отметим простейшие свойства дисперсии случайных процессов.

1. Дисперсия неслучайной функции
равна нулю, т.е.

2. Дисперсия случайного процесса
неотрицательна т.е.

3. Дисперсия произведения неслучайной функции
на случайную функцию
равна произведению квадрата неслучайной функции на дисперсию случайной функции, т.е.

4. Дисперсия суммы с.п.
и неслучайной функции
равна дисперсии с.п., т.е.

Пример 3. Пустьс.п. определяется формулой, т.е.
с.в.

распределена по нормальному закону с

Найти дисперсию и среднее квадратическое отклонение с.п.
.

Решение. Вычислим дисперсию на основании формулы из свойства 3. Имеем

но
, следовательно, по определению дисперсии с.в.

Следовательно,
т.е.
и



Похожие статьи