WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     | 1 | 2 || 4 | 5 |   ...   | 9 |

c+ j n s t = S p eptdp = (1.60) ( ) ( ) Res ( p)ept.

ak S 2 j k=c- j Пример. Найдем оригинал детерминированного процесса, изображение которого определяется зависимостью S p =.

( ) p ept Так как функция f p = имеет один полюс a = 0 первого порядка, ( ) p то ept Re s0 = lim p - 0 =1.

( ) ppp Следовательно, s t =1 = e t. Таким образом, искомый оригинал ( ) ( ) представляет собой функцию Хевисайда.

Изображение S p можно представить в идее рациональной дроби ( ) f p ( ) S p =, где F p - полином n -й степени, а f p - любой полином ( ) ( ) ( ) F p ( ) низшей степени. Знаменатель F p имеет M корней, которые можно найти ( ) из уравнения F p = 0, причем корень pk имеет кратность mk. В этом ( ) случае в соответствии с (1.58) имеем f p f p ( ) 1 d(mk -1) ( ) Re spk ept = p ( - pk k ept.

)m F p mk ) ( ) ( ) ( -1 ! dpmk -1 F' p p= pk Тогда согласно (1.60) выражение для оригинала принимает вид:

-) M f p ( ) s t = p (1.61) )m ( ) ( - pk k ept.

(m 1 d(mk ' -1 ! ) dpmk -1 F p ( ) k=1 k p= pk В случае простых корней знаменателя m1 = m2 =... =1 формула (1.61) ( ) упрощается:

M f pk kt ( )ep.

s t = (1.62) ( ) F' pk ( ) k=Зависимости (1.61) и (1.62) называются обобщением формулы разложения Хевисайда.

Пример. Следует определить оригинал процесса, изображение которого равно:

up S p =.

( ) p2 + Для данного примера f p = up, F p = p2 + 0, F' p = 2 p, Из уравнения ( ) ( ) ( ) p2 + 0 = 0находим корни знаменателя: p1 = j0 и p2 =- j0. Теперь по формуле (1.62) определяем оригинал:

j0t f p1 f p( ) ( ) uj0 j0t -uj0 j0t e + e- j0t s t = ep1t + ep2t = e + e- = u.

( ) F' p1 F' p2 2 j0 -2 j0 ( ) ( ) jx e + e- jx Используя формулу Эйлера cos x =, окончательно получим ( ) s t = u cos 0t при t > 0.

( ) ( ) 1.7 Корреляционный анализ детерминированных процессов Спектральный анализ позволяет оценить соотношение между различными гармоническими составляющими в спектре детерминированного процесса и вклад, вносимый каждой гармоникой. В ряде случаев для описания свойств сигналов желательно оперировать такой характеристикой, которая без разложения в спектр позволяет оценить временные параметры его, в частности, скорость его изменения во времени. К таким характеристикам относятся автокорреляционная и взаимнокорреляционная функции.

Автокорреляционная функция характеризует степень связи (корреляции) детерминированного процесса s t и его копии, сдвинутой на временной ( ) интервал. Для детерминированного процесса s t конечной длительности ( ) автокорреляционная функция K определяется соотношением ( ) + K = s t s t - dt, (1.63) ( ) ( ) ( ) где - временной интервал, на который смещена относительно исходного положения какая-либо точка функции s t.

( ) Основные свойства автокорреляционной функции 1. Автокорреляционная функция максимальна при отсутствии временного сдвига + K 0 = s2 t dt = E. (1.64) ( ) ( ) Иными словами, при = 0 значение автокорреляционной функции определяет полную энергию E детерминированного процесса. С увеличением временного сдвига автокорреляционная функция убывает. При сдвиге, превышающем длительность сигнала s t, автокорреляционная ( ) функция обращается в ноль.

Физический смысл автокорS(t) реляционной функции поясним на примере прямоt угольного импульса. Из приведенного построения S(t- ) (Рис.1.3) видно, что автокорреляционная функция харакt теризуется ординатой, равK ной численному значению ( ) площади под графиком s t s t - при данном вре- ( ) ( ) менном сдвиге. Другими словами, автокорреляцион- - 0 + ная функция ограниченного во времени детерминирован- Рис.1.3 ного процесса определяет энергию перекрывающихся частей процесса и его копии, сдвинутой на интервал. При этом автокорреляционная функция имеет размерность энергии.

Нормированная автокорреляционная функция, называемая коэффициентом автокорреляции, будет иметь вид K ( ) k =.

( ) K ( ) 2. Автокорреляционная функция – четная функция и может быть определена по любому из следующих соотношений:

+ + K = K = s t s t - dt = s t s t + dt. (1.65) ( ) () ( ) ( ) ( ) ( ) - 3. Для неограниченных во времени процессов соотношение (1.64) не имеет смысла, так как такие процессы обладают бесконечно большой энергией, однако средняя мощность их всегда имеет конечное значение.

Поэтому для таких процессов автокорреляционная функция может быть найдена с помощью предельного перехода:

TT K = lim s t s t - dt = lim s t s t + dt (1.66) ( ) ( ) ( ) ( ) ( ) T T TT TT -и приобретает размерность мощности при = 0, характеризуя среднюю мощность процесса, если он не содержит постоянной составляющей.

В случае периодического процесса с периодом T достаточно усреднить произведение s t s t - за один период:

( ) ( ) T K = s t s t - dt. (1.67) ( ) ( ) ( ) T T 4. Периодическому процессу соответствует и периодическая автокорреляционная функция, имеющая период, равный периоду самого процесса. Покажем это на примере простейшего гармонического процесса с амплитудой u и периодом T = :

s t = u cos t -, где - начальная фаза колебания.

( ) ( ) Используя выражение (1.67), получим:

T u2 K = cos t - cos t - - dt = ( ) ()( ) T T TT u2 2 u2 = cos t - - t + + dt + cos 2 t - - dt = () ) ( 2T 2T TT -TT u2t u2 u= cos + sin 2 t - - = cos.

( ) () ( ) TT 2T 2T 2 -uПри = 0 K =, т.е. средняя за период мощность гармонического ( ) процесса.

Из приведенного примера вытекает важный вывод: автокорреляционная функция периодического процесса не зависит от начальной фазы этого процесса.

Интервал, при котором автокорреляционная функция или коэффициент автокорреляции уменьшается до некоторой величины, например, до нуля, называется интервалом корреляции.

k = k( )d.

Пример. Определить автокорреляционную функцию, коэффициент автокорреляции и интервал корреляции для прямоугольного импульса величиной u и длительностью и и и и K = u2dt = u2 и - ; K 0 = u2и ; k =1- ; k = k d =.

( ) () ( ) ( ) ( ) и Связь двух различных процессов s1 t и s2 t характеризуется ( ) ( ) взаимно-корреляционной функцией:

+ + K12 = s1 t s2 t - dt = s1 t + s2 t dt. (1.68) ( ) ( ) ( ) ( ) ( ) - Взаимнокорреляционную функцию можно рассматривать как обобщение автокорреляционной функции на случай двух различных процессов. В качестве иллюстрации рассмотрим взаимнокорреляционную функцию двух гауссовых импульсов.

Пример. Заданы два процесса вида:

tt1 a2 b s1 t = e и s2 t = e. Определим взаимнокорреляционную ( ) ( ) a b функцию этих процессов.

+ t 1 t2 ( )2 dt.

K12 = exp- + ( ) ab a2 b - Показатель подынтегральной функции при помощи дополнения до квадрата можно преобразовать к виду:

tt 1 1 a - += + t - +.

ab a2 b2 a2 + b2 a2 + bb Тогда + 1 1 a + t - + dt = K12 = exp( ) ab a2 b2 a2 + b2 a2 + bb - + 1 1 a - + t - = exp - exp dt.

ab a2 + b2 - a2 b2 a2 + bb 1 1 a Обозначим + t - = y, получим:

b a2 b2 a2 + b+ ab K12 = exp - e- y2dy = exp -, ( ) ab a2 + b2 a2 + ba2 + b2 a2 + b + так как e- y2dy =.

Таким образом, взаимнокорреляционная функция двух гауссовых импульсов представляет собой также гауссов импульс с новым постоянным параметром a2 + b2.

Свойства взаимнокорреляционной функции отличаются от автокорреляционной функции. При = 0 взаимнокорреляционная функция не обязательно достигает максимума. Также взаимнокорреляционная функция не обязательно является четной (или нечетной) относительно.

Было отмечено, что автокорреляционная функция не дает никакой информации о начальной фазе гармонического процесса. Иначе обстоит дело с взаимнокорреляционной функцией двух гармонических процессов с одинаковыми частотами, но различными начальными фазами.

Пусть s1 t = acos t -1, а s2 t = bcos t -2.

( ) ( ) ( ) ( ) T ab ab K12 = cos t -1 cos t - -2 dt = cos - ( -2. (1.69) ( ) ()( ) ) T T Из выражения (1.69) видно, что взаимнокорреляционная функция двух гармонических процессов зависит от разности фаз этих процессов. Максимум 1 -функции K12 получается при =, а не при = 0.

( ) Рассмотрим взаимнокорреляционную функцию двух гармонических процессов с кратными частотами 1 и 2 = n1 при n =1,2,3,... и начальными фазами 1 и 2. В этом случае имеем T ab K12 = cos 1t -1 cos n1 t - -2 dt = ( ) () ( ) T T TT ab = cos 1t -1 - n1 t - + 2 dt + cos 1t -1 + n1 t - -2 dt.

( ) ( ) T TT - при n 1 оба интеграла этого выражения обращаются в нуль и, следовательно, можно сделать важное заключение: гармонические процессы с кратными частотами некоррелированы независимо от начальных фаз.

Коэффициент взаимной корреляции определяется выражением K( ) k12 =, (1.70) ( ) K1 0 K2 ( ) ( ) где K1 0 и K2 0 значения автокорреляционных функций процессов s1 t и ( ) ( ) ( ) s2 t при = 0.

( ) Связь между автокорреляционной функцией и спектральной функцией детерминированного процесса Рассмотрим две временные функции s t и s t -. Процессу s t ( ) ( ) ( ) соответствует спектральная функция S j, а процессу s t - ( ) ( ) соответствует спектральная функция S2 j = S j e- j. Известно, что ( ) ( ) + + s t s t - dt = S j S2 j d.

( ) ( ) ( ) ( ) - Комплексно-сопряженная функция S2 j будет выражена ( ) jj S2 j = S2 j = S j e = S j e.

( ) (- ) (- ) ( ) Тогда + + + 11 j s t s t - dt = S j S j e d = S j e d. (1.71) ( ) ( ) ( ) ( ) ( )j 2 - - Таким образом, автокорреляционная функция K и квадрат модуля ( ) спектральной функции S j детерминированного процесса связаны ( ) парой преобразования Фурье:

+ + 2 1 S j = K e- j d, K = S j e d (1.72) ( ) ( ) ( ) ( )j - 1.8 Дельта-функция и ее свойства Дельта-функция t - t0 такая функция, которая для любого ( )- параметра t0 равна нулю при t t0 и неограниченна при t = t0, а площадь этой функции равна единице, т.е.

0 t t t - t0 = при, ( ) t = t + t - t0 dt =1. (1.73) ( ) Дельта-функция получается как предельная семейства непрерывных функций. Возьмем некоторую функцию y = t, имеющую максимум при ( ) t = 0, и быстро убывающую в обе стороны от t = 0, и притом такую, что + t dt =1.

( ) В качестве такой функции можно взять, например, функцию t = e-t, ( ) Интеграл от этой функции равен единице. Рассмотрим семейство функций y = m t = m mt, т.е. такие функции, которые увеличиваются по высоте и ( ) ( ) сужаются по длительности. При этом значение интеграла останется без изменения, так как + + + + m t dt = m mt dt = mt dmt = t dt.

( ) ( ) ( ) ( ) - - - При m придем к дельта-функции.

Свертка дельта-функции с любой ограниченной и непрерывной в точке t0 функцией t обладает следующим замечательным свойством:

( ) + t t - t0 dt = t0. (1.74) ( ) ( ) ( ) Это свойство называется фильтрующим свойством дельта-функции.

Дельта-функция действует как фильтр. Умножая произвольную функцию t на t - t0 и интегрируя по t, выделяем одно значение этой ( ) ( ) функции, т.е. то значение, которое соответствует нулю аргумента дельтафункции t - t0.

( ) Отметим, что дельта-функция имеет размерность величины.

t Определим спектральную функцию дельта-функции, используя ее фильтрующее свойство (1.74):

+ S j = t - t0 e- jtdt = e- jt0. (1.75) ( ) ( ) Если t0 = 0, то, как видно из полученного выражения, спектральная функция дельта-функции равномерна на всех частотах с интенсивностью, равной единице.

Определим теперь спектральную функцию полусуммы двух дельтафункций. Получим:

+ jt t + t0 + t - t0 e- jt = e + e- jt0 = cos t0. (1.76) ( ) ( ) ( ) () Проведем обратное преобразование Фурье для функций S j =1 и ( ) S j = cos t0 :

( ) ( ) + + 1 jt jt e d = t и cos t0 e d = t + t0 + t - t0.

( ) ( ) ( ) ( ) 2 2 - Производные от дельта-функции определяются как пределы соответствующих производных от аппроксимирующих функций. Например:

n d n ( ) t = lim m e-m t2.

( ) m dtn Также как и сама дельта-функция, ее производные равны нулю при t 0. Поведение производных при t = 0 сложное. Первая производная, например, имеет вид ' t = lim -2tm3e-m t2, ( ) ( ) m она равна + при подходе к началу координат слева t = 0- и равна - при ( ) ' подходе справа t = 0+. В окрестностях t = 0 поведение t сравнимо с ( ) ( ) поведением функции 1 t.

Фильтрующее свойство дельта-функции распространяется также и на ее производные. Свертка производной дельта-функции с любой функцией, имеющей непрерывную производную n -го порядка в точке t0, равна + n ( ) t t - t0 dt = (n) t0. (1.77) ( ) ( ) ( ) Найдем спектральную функцию производной дельта-функции:

+ n d n ( ) S n j = t - t0 e- jtdt = e- jt = j e- jt0.

( ) ( ) (- )n dtn t=t + n ( ) Если t0 = 0, то t e- jtdt = j.

( ) (- )n Рассмотрим еще некоторые интересные формулы, связанные с дельтафункцией:

1. at = t ;

( ) ( ) a 2. t = t ;

( ) 1 ( ) ' ( ) 3. f t t - t0 = f t0 t - t0.

( ) ( ) ( ) ( ) С помощью дельта-функции легко записываются некоторые другие функции. Например, функция Хевисайда (функция единичного скачка) 0 t < e t = при. Эту функцию можно записать в виде ( ) 1 t > t e t = d. Ясно, что функция e t равна нулю при t < 0 и при t > 0 ( ) ( ) ( ) e t =1. Производная e t будет e' t = t. При интегрировании функции ( ) ( ) ( ) ( ) e t получим непрерывную функцию ( ) t 0 t < e d = при.

( ) t > t 1.9 Классификация и функции распределения случайных процессов Случайный процесс, для которого характерно изменение физической величины во времени (или в пространстве), описывается случайной функцией.

Различают четыре основных вида случайных процессов:

1) случайный процесс общего типа: t и t может принимать любые ( ) значения на отрезке действительной оси;

2) дискретный случайный процесс: t - непрерывно, а величины t - ( ) дискретны;

3) случайный поток общего типа: t - дискретно, t может принимать ( ) любое значение;

4) дискретный случайный поток: t и t оба дискретны.

( ) Особым классом являются квазидетерминированные случайные процессы, которые описываются функцией времени заданного типа t = s t,,,,..., один или несколько параметров,,,..., которой ( ) ( ) являются случайными величинами. В качестве примера можно привести процесс вида t = u cos t +, где u и фиксированы, а - случайная ( )( ) t x2 фаза.

( ) x1 Рассмотрим N реализаций t процесса (Рис.1.4) и выде- 1 лим из них те n1 реализа- x2 ций, значения которых в x1 моменты времени t = t2 t меньше или равны x1.

Тогда при достаточно x2 большом числе реализа- x1 ций N относительная доля nфункций находящихся N N t в момент времени t = t1ни- Рис.1.4 же уровня x1 будет обладать статистической устойчивостьювостью, т.е. будет оставаться приблизительно постоянным числом. Это число является вероятностью того, что в момент времени t = t1 случайная функция t находится ниже уровня ( ) x1. Указанная вероятность будет зависеть как от фиксированного момента времени, так и от выбранного уровня, т.е. будет функцией двух переменных t1 и x1. Функция F1 x1,t1 = P t1 x1 (1.78) ( ) { ( ) } называется одномерной интегральной функцией распределения случайного процесса. Если интегральная функция распределения имеет частную производную по xF1 x1,t( ) = W1 x1,t1, (1.79) ( ) xто эта производная называется одномерной плотностью вероятности или одномерной функцией распределения случайного процесса. Характеристики (1.78) и (1.79) дают представление о случайном процессе лишь в отдельные моменты времени. Они характеризуют процесс статистически и не дают представления о динамике его развития.

Для более полной характеристики случайного процесса необходимо знать связь между вероятностными значениями его при двух произвольных моментах времени.

Для этого снова рассмотрим N реализаций случайного процесса и выделим из них n2 реализаций, значения которых в моменты времени t = t1 меньше уровня x1, а в моменты t = t2 меньше x2. Получим по аналогии с предыдущим рассмотрением вероятность P t1 x1, t2 x2, которая { ( )( ) } является функцией четырех переменных x1, x2,t1,t2. Теперь F2 x1, x2,t1,t2 = P t1 x1, t2 x2 (1.80) ( ) { ( ) ( ) } называется двумерной интегральной функцией распределения вероятностей случайного процесса, а значение 2F2 x1, x2,t1,t( ) = W2 x1, x2,t1,t2 (1.81) () x1xназывается двумерной плотностью вероятностей.

Pages:     | 1 | 2 || 4 | 5 |   ...   | 9 |






















© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.