Смекни!
smekni.com

Расчет систем управления при случайных воздействиях (стр. 6 из 11)

. (2.21)

Известно, что для пуассоновского распределения дисперсия и математическое ожидание совпадают

, (2.22)

поэтому при несовпадении этих параметров пользуются законами, выраженными линейными комбинациями пуассоновских распределений с разными параметрами.

Для вычисления интенсивности λc(T) числа выбросов (2.19) необходимо знать величины

и
, которые определяются по известной корреляционной функции
стационарного случайного процесса

, (2.23)

. (2.24)

Важными для практики исследования систем управления являются вероятность отсутствия выбросов P0 и вероятность хотя бы одного выброса на интервале (0, T), определяемые на основе (2.20) выражениями:

(2.25)

. (2.26)

В заключение отметим, что систематическое и полное изложение теории и практических вопросов, связанных с выбросами случайных процессов даётся в книгах В.И. Тихонова (Стат. радиотехника, Тихонов, Миронов и т.д.).

3. Корреляционные функции случайных процессов

3.1. Понятие корреляционной функции

Ранее были рассмотрены вероятностные характеристики случайных процессов:

· математическое ожидание случайной x(t) функции – такая неслучайная функция mx(t) аргумента t, которая в каждом сечении случайной функции равна математическому ожиданию соответствующей (этому сечению) случайной величины:

; (3.1)

· дисперсия случайной функции x(t) – такая неслучайная функция Dx(t) аргумента t, которая в каждом сечении случайной функции равна дисперсии соответствующей (этому сечению) случайной величины:

;(3.2)

· среднее квадратическое отклонение:

.(3.3)

Достаточно ли всех этих характеристик, чтобы полностью описать случайный процесс, например: процессы с одинаковыми mxи Dx? Оказывается, что нет (рис. 3.1.). Для полного описания случайных процессов вводится понятие корреляционной функции.

а

Рис. 3.1. Различие двух процессов

и Y(t) при
равных математическом ожидании, дисперсии, СКО

б

Рис. 3.1. Окончание (начало см. на с. 30)

Предполагаем, что закон распределения нормальный. На графиках видно резкое отличие процессов, несмотря на их равные вероятностные характеристики.

Чтобы охарактеризовать структуру случайного процесса (изменчивость реализации во времени) необходимо ввести характеристику зависимости (корреляции) двух сечений случайного процесса.

Что же такое корреляция? Приведем пример для наглядного пояснения.

Так, например, если речь идет о слежении за самолетом, то он не может как угодно быстро менять свое положение и скорость. Поэтому если он в момент времени t занял положение х1 то этим самым его возможное положение х2 в следующий момент t2 ограничено, т. е. события (x1, t1) и (x2, t2) не будут независимыми. Чем более инерционен изучаемый объект, тем больше эта взаимозависимость, или корреляция. Корреляционная функция математически выражает корреляцию двух функций или корреляцию функции с самой собой (автокорреляционная функция).

Корреляционная функция описывается в следующем виде:

, (3.4)

где t1 и t2 – любые моменты времени, то есть t1 и t2ÎТ

Корреляционная функция – такая неслучайная функция Rx(t1, t2) двух аргументов, которая для любой пары фиксированных значений аргументов t1 и t2 равна корреляционному моменту, соответствующих этим сечениям случайных величин x(t1) и x(t2).

Рис. 3.2. Корреляционные функции двух различных процессов x(t) и y(t)

При совпадении моментов t1 и t2 корреляционная функция равна дисперсии. Нормированная корреляционная функция вычисляется по формуле:

, (3.5)

,

где sx(t1) и sx(t2) с.к.о. случайной функции x(t) при t=t1 и t=t2 соответственно. Для вычисления корреляционной функции требуется знать вторую плотность (двумерную) вероятности

(3.6)

Замечания.

1) Знание первой плотности вероятности w1(x, t) позволяет вычислять математическое ожидание случайного процесса M[x, t], дисперсию случайного процесса и с.к.о.

.

Для определения корреляционной функции нужно знать вторую плотность вероятности.

.

Знание о случайном процессе будет тем полнее, чем больше сечений мы будем рассматривать совместно и, следовательно, чем больше размерность плотности вероятности. Следовательно рассматривая n сечений нужно знать n-мерную плотность.

.

Для полного описания случайного процесса необходимо знать бесконечномерную плотность вероятности. На практике обычно ограничиваются знанием первой и второй плотности вероятности.

2) Иногда для решения практических задач используют второй начальный момент (начальный момент второго порядка).

(3.7)

Если t1=t2=t, то

.

Чтобы установить связь, между X(t) и Y(t) вводится понятие взаимной корреляционной функции (корреляционная функция связи), показывающая связь двух и более сечений процессов x(t) и y(t).

Рис. 3.3. Сечения процессов X(t) и Y(t)

При этом

Нельзя произвольно менять местами или индексы или аргументы.

Для вычисления корреляционной функции нужно знать

. Тогда

. (3.8)

Введём нормированную корреляционную функцию связи.

, (3.9)

где

.

3.2. Операции над случайными функциями (процессами)

3.2.1.Сложение

Пусть Z(t)=Х(t)+Y(t).

Рис. 3.4. Сумматор случайных функций

Т.е. имеем сумматор.

Известны: характеристики входных сигналов:

Требуется найти:

1)

Rz(t1, t2); Dz(t)=Rz(t, t);

=mx(t)+my(t).

2)

. (3.10)

Если случайные функции не коррелированны, то получим:

. (3.11)

При t1=t2=t из (3.7) получим

3)

. (3.12)

Для некоррелированных случайных функций дисперсия суммы равна сумме дисперсий.

.