Смекни!
smekni.com

Измерение, контроль, диагноз и устранение колебаний ротационных машин (стр. 8 из 9)

Монотонный случай – Выше рассматривался случай

. Ниже можно считать
. Это позволит упростить обозначения за счет отбрасывания индекса N.

Пусть дана интегрируемая последовательность

. Обозначим через
класс всех моментов остановки
, для которых
. Практически это всегда выполняется. Тогда по определению
.

Если

,
и для каждого

(2.3)

на множестве

, то

(2.4)

на множестве

.

Справедливо также следующее обращение этого утверждения: если

, то для любого
при
справедливы неравенства (2.3) и (2.4). Физически эти соотношения характеризуют случай, когда
является более выгодным моментом перехода на статистическую диагностику, чем момент
.

Если

– момент остановки, такой, что для каждого

на
,

то

является субмартингалом. Если кроме того, существует
и

(2.5)

то выполняется (2.3)

Другими словами, если момент sостанавливает субмартингал, то остановленный субмартингал остается субмартингалом. Это вполне естественно, поскольку в момент перехода на статистические методы последнее значение

замораживается.

Если

и для каждого
на
,

(2.3.6)

то справедливо (2.4).

Другими словами, если s останавливает обучение, когда уже появилась супермартингальность, то любое запаздывание (остановка по

, где
) только усугубляет все дело (снижает выигрыш от перехода на статистическую диагностику).

Существует один случай, в котором есть естественный претендент на оптимальный момент остановки. Это так называемый монотонный случай, в котором стохастическая последовательность

удовлетворяет следующим условиям. Положим

т.е. множество

– множество тех траекторий обучения, на которых в момент
уже появилась супермартингальность. Предположим, что имеет место монотонный случай, если

В этом случае момент остановки

равен первому
, такому, что

(2.7)

заслуживает специального рассмотрения с точки зрения оптимальности. В дополнительной литературе приводятся примеры, которые показывают, что момент остановки (2.7) не всегда оптимален. Но эти примеры слишком конструктивны и практически не встречаются в диагностической практике. К тому же можно выдвинуть ряд ограничений, которые вполне выполнимы на практике, и внутри этих ограничений МО (2.7) оптимален. Эти ограничения формируются следующим образом. Предположим, что в монотонном случае момент

, определяемый в (2.7), принадлежит классу
. Тогда, если выполняется (2.5), то
для которых справедливо (2.6). Условие (2.5) означает отсутствие очень больших положительных выбросов в последовательности
до момента
, а условие (2.6) – отсутствие больших отрицательных выбросов до момента
. На практике эти допущения вполне выполняются, поскольку даже если выбросы и будут, они маловероятны и при интегрировании в (2.5), (2.6) будут нивелированы бесконечно малыми значениями их вероятностей.

Таким образом, на практике, если имеет место монотонный случай, то момент из (2.7) является оптимальным моментом перехода на статистические методы диагностики.

Остается оценить, как часто практические задачи обучения системы диагностики являются монотонными. Если это случается всегда, то (2.7) даст полное решение всей задачи. Причем это решение легче реализовать в многомерном случае, чем обратную индукцию.

2.4 Обучение системы диагностики непараметрический общий случай

Обучение системы диагностики в общем случае должно строиться по схеме на рисунок 2.2, где

1 – блок выработки очередной гипотезы о виде распределения наблюдения (измеряемой контрольной величины)

;

2 – блок оптимальной оценки параметров;

3 – блок проверки гипотезы о виде распределения

.\

Рисунок 2.2 – Схема обучения системы диагностики в общем случае

Общая идея работы блока 3 заключается в следующем. Очевидно, если первая гипотеза блока 1 отвергнута блоком 3, то при оценке параметров следующей гипотезы в блоке 2 может использоваться уже накопленная история

, Возможно, что она сразу окажется достаточной и для оценки параметров для второй гипотезы. Если нет, то блок 2 будет ждать накопления до
. Гипотезой назовем непустое подмножество множества мер
, а статистику
со значением в [0, 1], где
- момент остановки параметрического обучения системы диагностики, назовем рандомизированной стратегией непараметрического обучения системы диагностики. Считаем, что моменты
,
, на рис. 2.2 диктует блок 2. Это позволяет упростить рассуждения, не снижая их общности. Возможен также вариант, когда
Поэтому ниже опустим все нюансы, связанные с
, поскольку они не повлияют на основные принципы работы блока 3.

Будем разбирать случай, когда в блоке 3 проверяется гипотеза

при альтернативе
при достаточной выборке
.

Необходимо дать основные рекомендации по выбору

. Стратегия
приписывает вероятность
гипотезе Г и вероятность (1 –
) гипотезе Г. Таким образом, налицо рандомизация. Поэтому в непараметрической статистике оперируют в основном с математическим ожиданием