Корреляционная и взаимно корреляционная функция. Взаимнокорреляционная функция Взаимные корреляционные функции сигналов

СИГНАЛЫ и ЛИНЕЙНЫЕ СИСТЕМЫ

Signals and linear systems. Correlation of signals

Тема 6. КОРРЕЛЯЦИЯ СИГНАЛОВ

Предельный страх и предельный пыл храбрости одинаково расстраивают желудок и вызывают понос.

Мишель Монтень. Французский юрист-мыслитель, XVI в.

Вот это номер! Две функции имеют стопроцентную корреляцию с третьей и ортогональны друг другу. Ну и шуточки были у Всевышнего при сотворении Мира.

Анатолий Пышминцев. Новосибирский геофизик Уральской школы, ХХ в.

1. Автокорреляционные функции сигналов. Понятие автокорреляционных функций (АКФ). АКФ сигналов, ограниченных во времени. АКФ периодических сигналов. Функции автоковариации (ФАК). АКФ дискретных сигналов. АКФ зашумленных сигналов. АКФ кодовых сигналов.

2. Взаимнокорреляционные функции сигналов (ВКФ). Взаимная корреляционная функция (ВКФ). Взаимная корреляция зашумленных сигналов. ВКФ дискретных сигналов. Оценка периодических сигналов в шуме. Функция взаимных корреляционных коэффициентов.

3. Спектральные плотности корреляционных функций. Спектральная плотность АКФ. Интервал корреляции сигнала. Спектральная плотность ВКФ. Вычисление корреляционных функций при помощи БПФ.

введение

Корреляция (correlation), и ее частный случай для центрированных сигналов – ковариация, является методом анализа сигналов. Приведем один из вариантов использования метода. Допустим, что имеется сигнал s(t), в котором может быть (а может и не быть) некоторая последовательность x(t) конечной длины Т, временное положение которой нас интересует. Для поиска этой последовательности в скользящем по сигналу s(t) временном окне длиной Т вычисляются скалярные произведения сигналов s(t) и x(t). Тем самым мы "прикладываем" искомый сигнал x(t) к сигналу s(t), скользя по его аргументу, и по величине скалярного произведения оцениваем степень сходства сигналов в точках сравнения.


Корреляционный анализ дает возможность установить в сигналах (или в рядах цифровых данных сигналов) наличие определенной связи изменения значений сигналов по независимой переменной, то есть, когда большие значения одного сигнала (относительно средних значений сигнала) связаны с большими значениями другого сигнала (положительная корреляция), или, наоборот, малые значения одного сигнала связаны с большими значениями другого (отрицательная корреляция), или данные двух сигналов никак не связаны (нулевая корреляция).

В функциональном пространстве сигналов эта степень связи может выражаться в нормированных единицах коэффициента корреляции, т. е. в косинусе угла между векторами сигналов, и, соответственно, будет принимать значения от 1 (полное совпадение сигналов) до -1 (полная противоположность) и не зависит от значения (масштаба) единиц измерений .

В варианте автокорреляции (autocorrelation) по аналогичной методике производится определение скалярного произведения сигнала s(t) с собственной копией, скользящей по аргументу. Автокорреляция позволяет оценить среднестатистическую зависимость текущих отсчетов сигнала от своих предыдущих и последующих значений (так называемый радиус корреляции значений сигнала), а также выявить в сигнале наличие периодически повторяющихся элементов.

Особое значение методы корреляции имеют при анализе случайных процессов для выявления неслучайных составляющих и оценки неслучайных параметров этих процессов.

Заметим, что в терминах "корреляция" и "ковариация" существует некоторая путаница. В математической литературе термин "ковариация" применяется к центрированным функциям, а "корреляция" – к произвольным. В технической литературе , и особенно в литературе по сигналам и методам их обработки, часто применяется прямо противоположная терминология. Принципиального значения это не имеет, но при знакомстве с литературными источниками стоит обращать внимание на принятое назначение данных терминов.

6.1. Автокорреляционные функции сигналов .

Понятие автокорреляционных функций сигналов . Автокорреляционная функция (АКФ, CF - correlation function) сигнала s(t), конечного по энергии, является количественной интегральной характеристикой формы сигнала, выявления в сигнале характера и параметров взаимной временной связи отсчетов, что всегда имеет место для периодических сигналов, а также интервала и степени зависимости значений отсчетов в текущие моменты времени от предыстории текущего момента. АКФ определяется интегралом от произведения двух копий сигнала s(t), сдвинутых относительно друг друга на время t:

Bs(t) =s(t) s(t+t) dt = ás(t), s(t+t)ñ = ||s(t)|| ||s(t+t)|| cos j(t). (6.1.1)

Как следует из этого выражения, АКФ является скалярным произведением сигнала и его копии в функциональной зависимости от переменной величины значения сдвига t. Соответственно, АКФ имеет физическую размерность энергии, а при t = 0 значение АКФ непосредственно равно энергии сигнала и является максимально возможным (косинус угла взаимодействия сигнала с самим собой равен 1):

Bs(0) =s(t)2 dt = Es.

АКФ относится к четным функциям, в чем нетрудно убедиться заменой переменной t = t-t в выражении (6.1.1):

Bs(t) = s(t-t) s(t) dt = Bs(-t).

Максимум АКФ, равный энергии сигнала при t=0, всегда положителен, а модуль АКФ при любом значении временного сдвига не превосходит энергии сигнала. Последнее прямо вытекает из свойств скалярного произведения (как и неравенство Коши-Буняковского):


ás(t), s(t+t)ñ = ||s(t)||×||s(t+t)||×cos j(t),

cos j(t) = 1 при t = 0, ás(t), s(t+t)ñ = ||s(t)||×||s(t)|| = Es,

cos j(t) < 1 при t ¹ 0, ás(t), s(t+t)ñ = ||s(t)||×||s(t+t)||×cos j(t) < Es.

В качестве примера на рис. 6.1.1 приведены два сигнала – прямоугольный импульс и радиоимпульс одинаковой длительности Т, и соответствующие данным сигналам формы их АКФ. Амплитуда колебаний радиоимпульса установлена равной амплитуды прямоугольного импульса, при этом энергии сигналов также будут одинаковыми, что подтверждается равными значениями центральных максимумов АКФ. При конечной длительности импульсов длительности АКФ также конечны, и равны удвоенным значениям длительности импульсов (при сдвиге копии конечного импульса на интервал его длительности как влево, так и вправо, произведение импульса со своей копией становится равным нулю). Частота колебаний АКФ радиоимпульса равна частоте колебаний заполнения радиоимпульса (боковые минимумы и максимумы АКФ возникают каждый раз при последовательных сдвигах копии радиоимпульса на половину периода колебаний его заполнения).

С учетом четности, графическое представление АКФ обычно производится только для положительных значений t. На практике сигналы обычно задаются на интервале положительных значений аргументов от 0-Т. Знак +t в выражении (6.1.1) означает, что при увеличении значений t копия сигнала s(t+t) сдвигается влево по оси t и уходит за 0. Для цифровых сигналов это требует соответствующего продления данных в область отрицательных значений аргумента. А так как при вычислениях интервал задания t обычно много меньше интервала задания сигнала, то более практичным является сдвиг копии сигнала влево по оси аргументов, т. е. применение в выражении (6.1.1) функции s(t-t) вместо s(t+t).

Bs(t) = s(t) s(t-t) dt. (6.1.1")

Для финитных сигналов по мере увеличения значения величины сдвига t временное перекрытие сигнала с его копией уменьшается, а, соответственно, косинус угла взаимодействия и скалярное произведение в целом стремятся к нулю:

АКФ, вычисленная по центрированному значению сигнала s(t), представляет собой автоковариационную функцию сигнала:

Cs(t) = dt, (6.1.2)

где ms – среднее значение сигнала. Ковариационные функции связаны с корреляционным функциями достаточно простым соотношением:

Cs(t) = Bs(t) - ms2.

АКФ сигналов, ограниченных во времени. На практике обычно исследуются и анализируются сигналы, заданные на определенном интервале. Для сравнения АКФ сигналов, заданных на различных временных интервалах, практическое применение находит модификация АКФ с нормировкой на длину интервала. Так, например, при задании сигнала на интервале :

Bs(t) =s(t) s(t+t) dt. (6.1.3)

АКФ может быть вычислена и для слабозатухающих сигналов с бесконечной энергией, как среднее значение скалярного произведения сигнала и его копии при устремлении интервала задания сигнала к бесконечности:

Bs(t) =. (6.1.4)

АКФ по данным выражениям имеет физическую размерность мощности, и равна средней взаимной мощности сигнала и его копии в функциональной зависимости от сдвига копии.

АКФ периодических сигналов. Энергия периодических сигналов бесконечна, поэтому АКФ периодических сигналов вычисляется по одному периоду Т, с усреднением скалярного произведения сигнала и его сдвинутой копии в пределах периода:

Bs(t) = (1/Т)s(t) s(t-t) dt. (6.1.5)

Математически более строгое выражение:

Bs(t) =.

При t=0 значение нормированной на период АКФ равно средней мощности сигналов в пределах периода. При этом АКФ периодических сигналов является периодической функцией с тем же периодом Т. Так, для сигнала s(t) = A cos(w0t+j0) при T=2p/w0 имеем:

Bs(t) = A cos(w0t+j0) A cos(w0(t-t)+j0) = (A2/2) cos(w0t). (6.1.6)

Полученный результат не зависит от начальной фазы гармонического сигнала, что характерно для любых периодических сигналов и является одним из свойств АКФ. С помощью функций автокорреляции можно проверять наличие периодических свойств в любых произвольных сигналах. Пример автокорреляционной функции периодического сигнала приведен на рис. 6.1.2.

Функции автоковариации (ФАК) вычисляются аналогично, по центрированным значениям сигнала. Замечательной особенностью этих функций являются их простые соотношения с дисперсией ss2 сигналов (квадратом стандарта - среднего квадратического отклонения значений сигнала от среднего значения). Как известно, значение дисперсии равно средней мощности сигналов, откуда следует:

|Cs(t)| ≤ ss2, Cs(0) = ss2 º ||s(t)||2. (6.1.7)

Значения ФАК, нормированные на значение дисперсии, представляют собой функцию автокорреляционных коэффициентов:

rs(t) = Cs(t)/Cs(0) = Cs(t)/ss2 º cos j(t). (6.1.8)

Иногда эту функцию называют "истинной" автокорреляционной функцией. В силу нормировки ее значения не зависят от единиц (масштаба) представления значений сигнала s(t) и характеризуют степень линейной связи между значениями сигнала в зависимости от величины сдвига t между отсчетами сигнала. Значения rs(t) º cos j(t) могут изменяться от 1 (полная прямая корреляция отсчетов) до -1 (обратная корреляция).

На рис. 6.1.3 приведен пример сигналов s(k) и s1(k) = s(k)+шум с соответствующими этим сигналам коэффициентами ФАК - rs и rs1. Как видно на графиках, ФАК уверенно выявила наличие периодических колебаний в сигналах. Шум в сигнале s1(k) понизил амплитуду периодических колебаний без изменения периода. Это подтверждает график кривой Cs/ss1, т. е. ФАК сигнала s(k) с нормировкой (для сопоставления) на значение дисперсии сигнала s1(k), где наглядно можно видеть, что шумовые импульсы при полной статистической независимости своих отсчетов вызвали увеличение значения Сs1(0) по отношению к значению Cs(0) и несколько "размыли" функцию коэффициентов автоковариации. Это вызвано тем, что значение rs(t) шумовых сигналов стремится к 1 при t ® 0 и флюктуирует относительно нуля при t ≠ 0, при этом амплитуды флюктуаций статистически независимы и зависят от количества выборок сигнала (стремятся к нулю при увеличении количества отсчетов).

АКФ дискретных сигналов. При интервале дискретизации данных Dt = const вычисление АКФ выполняется по интервалам Dt = Dt и обычно записывается, как дискретная функция номеров n сдвига отсчетов nDt:

Bs(nDt) = Dtsk×sk-n. (6.1.9)

Дискретные сигналы обычно задаются в виде числовых массивов определенной длины с нумерацией отсчетов к = 0,1,…К при Dt=1, а вычисление дискретной АКФ в единицах энергии выполняется в одностороннем варианте с учетом длины массивов. Если используется весь массив сигнала и число отсчетов АКФ равно числу отсчетов массива, то вычисление выполняется по формуле:

Bs(n) = sk×sk-n. (6.1.10)

Множитель K/(K-n) в данной функции является поправочным коэффициентом на постепенное уменьшение числа перемножаемых и суммируемых значений по мере увеличения сдвига n. Без этой поправки для нецентрированных сигналов в значениях АКФ появляется тренд суммирования средних значений. При измерениях в единицах мощности сигнала множитель К/(K-n) заменяется на множитель 1/(K-n).

Формула (6.1.10) применяется довольно редко, в основном для детерминированных сигналов с небольшим числом отсчетов. Для случайных и зашумленных сигналов уменьшение знаменателя (K-n) и числа перемножаемых отсчетов по мере увеличения сдвига приводит к нарастанию статистических флюктуаций вычисления АКФ. Большую достоверность в этих условиях обеспечивает вычисление АКФ в единицах мощности сигнала по формуле:

Bs(n) = sk×sk-n, sk-n = 0 при k-n < 0, (6.1.11)

т. е. с нормированием на постоянный множитель 1/K и с продлением сигнала нулевыми значениями (в левую сторону при сдвигах k-n или в правую сторону при использовании сдвигов k+n). Эта оценка является смещенной и имеет несколько меньшую дисперсию, чем по формуле (6.1.10). Разницу между нормировками по формулам (6.1.10) и (6.1.11) можно наглядно видеть на рис. 6.1.4.

Формулу (6.1.11) можно рассматривать, как усреднение суммы произведений, т. е. как оценку математического ожидания:

Bs(n) = M{sk sk-n} @ . (6.1.12)

Практически, дискретная АКФ имеет такие же свойства, как и непрерывная АКФ. Она также является четной, а ее значение при n = 0 равно энергии или мощности дискретного сигнала в зависимости от нормировки.

АКФ зашумленных сигналов . Зашумленный сигнал записывается в виде суммы v(k) = s(k)+q(k). В общем случае, шум не обязательно должен иметь нулевое среднее значение, и нормированная по мощности автокорреляционная функция цифрового сигнала, содержащая N – отсчетов, записывается в следующем виде:

Bv(n) = (1/N) ás(k)+q(k), s(k-n)+q(k-n)ñ =

= (1/N) [ás(k), s(k-n)ñ + ás(k), q(k-n)ñ + áq(k), s(k-n)ñ + áq(k), q(k-n)ñ] =

Bs(n) + M{sk qk-n} + M{qk sk-n} + M{qk qk-n}.

Bv(n) = Bs(n) + + + . (6.1.13)

При статистической независимости полезного сигнала s(k) и шума q(k) с учетом разложения математического ожидания

M{sk qk-n} = M{sk} M{qk-n} =

может использоваться следующая формула:

Bv(n) = Bs(n) + 2 + . (6.1.13")

Пример зашумленного сигнала и его АКФ в сопоставлении с незашумленным сигналом приведен на рис. 6.1.5.

Из формул (6.1.13) следует, что АКФ зашумленного сигнала состоит из АКФ сигнальной компоненты полезного сигнала с наложенной затухающей до значения 2+шумовой функцией. При больших значениях K, когда → 0, имеет место Bv(n) » Bs(n). Это дает возможность не только выделять по АКФ периодические сигналы, практически полностью скрытые в шуме (мощность шумов много больше мощности сигнала), но и с высокой точностью определять их период и форму в пределах периода, а для одночастотных гармонических сигналов – и их амплитуду с использованием выражения (6.1.6).

Сигнал Баркера

АКФ сигнала

1, 1, 1, -1, -1, 1, -1

7, 0, -1, 0, -1, 0, -1

1,1,1,-1,-1,-1,1,-1,-1,1,-1

11,0,-1,0,-1,0,-1,0,-1,0,-1

1,1,1,1,1,-1,-1,1,1-1,1,-1,1

13,0,1,0,1,0,1,0,1,0,1,0,1

Кодовые сигналы являются разновидностью дискретных сигналов. На определенном интервале кодового слова М×Dt они могут иметь только два амплитудных значения: 0 и 1 или 1 и –1. При выделении кодов на существенном уровне шумов форма АКФ кодового слова имеет особое значение. С этой позиции наилучшими считаются такие коды, значения боковых лепестков АКФ которых минимальны по всей длине интервала кодового слова при максимальном значении центрального пика. К числу таких кодов относится код Баркера, приведенный в таблице 6.1. Как видно из таблицы, амплитуда центрального пика кода численно равна значению М, при этом амплитуда боковых осцилляций при n ¹ 0 не превышает 1.

6.2. Взаимные корреляционные функции сигналов .

Взаимная корреляционная функция (ВКФ) разных сигналов (cross-correlation function, CCF) описывает как степень сходства формы двух сигналов, так и их взаимное расположение друг относительно друга по координате (независимой переменной). Обобщая формулу (6.1.1) автокорреляционной функции на два различных сигнала s(t) и u(t), получаем следующее скалярное произведение сигналов:

Bsu(t) =s(t) u(t+t) dt. (6.2.1)

Взаимная корреляция сигналов характеризует определенную корреляцию явлений и физических процессов, отображаемых данными сигналами, и может служить мерой “устойчивости” данной взаимосвязи при раздельной обработке сигналов в различных устройствах. Для конечных по энергии сигналов ВКФ также конечна, при этом:

|Bsu(t)| £ ||s(t)||×||u(t)||,

что следует из неравенства Коши-Буняковского и независимости норм сигналов от сдвига по координатам.

При замене переменной t = t-t в формуле (6.2.1), получаем:

Bsu(t) =s(t-t) u(t) dt = u(t) s(t-t) dt = Bus(-t).

Отсюда следует, что для ВКФ не выполняется условие четности, Bsu(t) ¹ Bsu(-t), и значения ВКФ не обязаны иметь максимум при t = 0.

Это можно наглядно видеть на рис. 6.2.1, где заданы два одинаковых сигнала с центрами на точках 0.5 и 1.5. Вычисление по формуле (6.2.1) с постепенным увеличением значений t означает последовательные сдвиги сигнала s2(t) влево по оси времени (для каждого значения s1(t) для подынтегрального умножения берутся значения s2(t+t)). При t=0 сигналы ортогональны и значение B12(t)=0. Максимум В12(t) будет наблюдаться при сдвиге сигнала s2(t) влево на значение t=1, при котором происходит полное совмещение сигналов s1(t) и s2(t+t).

Одни и те же значения ВКФ по формулам (6.2.1) и (6.2.1") наблюдаются при одном и том же взаимном положении сигналов: при сдвиге на интервал t сигнала u(t) относительно s(t) вправо по оси ординат и сигнала s(t) относительно сигнала u(t) влево, т. е. Bsu(t) = Bus(-t).

На рис. 6.2.2 приведены примеры ВКФ для прямоугольного сигнала s(t) и двух одинаковых треугольных сигналов u(t) и v(t). Все сигналы имеют одинаковую длительность Т, при этом сигнал v(t) сдвинут вперед на интервал Т/2.

Сигналы s(t) и u(t) одинаковы по временному расположению и площадь "перекрытия" сигналов максимальна при t=0, что и фиксируется функцией Bsu. Вместе с тем функция Bsu резко асимметрична, так как при асимметричной форме сигнала u(t) для симметричной формы s(t) (относительно центра сигналов) площадь "перекрытия" сигналов изменяется по разному в зависимости от направления сдвига (знака t при увеличения значения t от нуля). При смещении исходного положения сигнала u(t) влево по оси ординат (на опережение сигнала s(t) - сигнал v(t)) форма ВКФ остается без изменения и сдвигается вправо на такое же значение величины сдвига – функция Bsv на рис. 6.2.2. Если поменять местами выражения функций в (6.2.1), то новая функция Bvs будет зеркально повернутой относительно t=0 функцией Bsv.

С учетом этих особенностей полное ВКФ вычисляется, как правило, отдельно для положительных и отрицательных запаздываний:

Bsu(t) =s(t) u(t+t) dt. Bus(t) =u(t) s(t+t) dt. (6.2.1")

Взаимная корреляция зашумленных сигналов . Для двух зашумленных сигналов u(t) = s1(t)+q1(t) и v(t) = s2(t)+q2(t), применяя методику вывода формул (6.1.13) с заменой копии сигнала s(t) на сигнал s2(t), нетрудно вывести формулу взаимной корреляции в следующем виде:

Buv(t) = Bs1s2(t) + Bs1q2(t) + Bq1s2(t) + Bq1q2(t). (6.2.2)

Последние три члена в правой части (6.2.2) затухают до нуля при увеличении t. При больших интервалах задания сигналов выражение может быть записано в следующей форме:

Buv(t) = Bs1s2(t) + + + . (6.2.3)

При нулевых средних значениях шумов и статистической независимости от сигналов имеет место:

Buv(t) → Bs1s2(t).

ВКФ дискретных сигналов. Все свойства ВКФ аналоговых сигналов действительны и для ВКФ дискретных сигналов, при этом для них действительны и особенности дискретных сигналов, изложенные выше для дискретных АКФ (формулы 6.1.9-6.1.12). В частности, при Dt = const =1 для сигналов x(k) и y(k) с числом отсчетов К:

Bxy(n) = xk yk-n. (6.2.4)

При нормировании в единицах мощности:

Bxy(n) = xk yk-n @ . (6.2.5)

Оценка периодических сигналов в шуме . Зашумленный сигнал можно оценить по взаимной корреляции с "эталонным" сигналом методом проб и ошибок с настройкой функции взаимной корреляции до максимального значения.

Для сигнала u(k)=s(k)+q(k) при статистической независимости шума и → 0 функция взаимной корреляции (6.2.2) с шаблоном сигнала p(k) при q2(k)=0 принимает вид:

Bup(k) = Bsp(k) + Bqp(k) = Bsp(k) + .

А поскольку → 0 при увеличении N, то Bup(k) → Bsp(k). Очевидно, что функция Bup(k) будет иметь максимум, когда p(k) = s(k). Меняя форму шаблона p(k) и добиваясь максимизации функции Bup(k), можно получить оценку s(k) в виде оптимальной формы p(k).

Функция взаимных корреляционных коэффициентов (ВКФ) является количественным показателем степени сходства сигналов s(t) и u(t). Аналогично функции автокорреляционных коэффициентов, она вычисляется через центрированные значения функций (для вычисления взаимной ковариации достаточно центрировать только одну из функций), и нормируется на произведение значений стандартов функций s(t) и v(t):

rsu(t) = Csu(t)/sssv. (6.2.6)

Интервал изменения значений корреляционных коэффициентов при сдвигах t может изменяться от –1 (полная обратная корреляция) до 1 (полное сходство или стопроцентная корреляция). При сдвигах t, на которых наблюдаются нулевые значения rsu(t), сигналы независимы друг от друга (некоррелированны). Коэффициент взаимной корреляции позволяет устанавливать наличие связи между сигналами вне зависимости от физических свойств сигналов и их величины.

При вычислении ВКФ зашумленных дискретных сигналов ограниченной длины с использованием формулы (6.2.4) имеется вероятность появления значений |rsu(n)| > 1.

Для периодических сигналов понятие ВКФ обычно не применяется, за исключением сигналов с одинаковым периодом, например, сигналов входа и выхода при изучении характеристик систем.

6.3. Спектральные плотности корреляционных функций .

Спектральная плотность АКФ может быть определена из следующих простых соображений.

В соответствии с выражением (6.1.1) АКФ представляет собой функцию скалярного произведения сигнала и его копии, сдвинутой на интервал t, при -¥ < t < ¥:

Bs(t) = ás(t), s(t-t)ñ.

Скалярное произведение может быть определено через спектральные плотности сигнала и его копии, произведение которых представляет собой спектральную плотность взаимной мощности:

ás(t), s(t-t)ñ = (1/2p)S(w) St*(w) dw.

Смещение сигнала по оси абсцисс на интервал t отображается в спектральном представлении умножением спектра сигнала на exp(-jwt), а для сопряженного спектра на множитель exp(jwt):

St*(w) = S*(w) exp(jwt).

С учетом этого получаем:

Bs(t) = (1/2p)S(w) S*(w) exp(jwt) dw =

= (1/2p)|S(w)|2 exp(jwt) dw. (6.3.1)

Но последнее выражение представляет собой обратное преобразование Фурье энергетического спектра сигнала (спектральной плотности энергии). Следовательно, энергетический спектр сигнала и его автокорреляционная функция связаны преобразованием Фурье:

Bs(t) Û |S(w)|2 = Ws(w). (6.3.2)

Таким образом, спектральная плотность АКФ есть не что иное, как спектральная плотность мощности сигнала, которая, в свою очередь, может определяться прямым преобразованием Фурье через АКФ:

|S(w)|2 = Bs(t) exp(-jwt) dt. (6.3.3)

Последние выражение накладывает определенные ограничения на форму АКФ и методику их ограничения по длительности.

Рис. 6.3.1. Спектр несуществующей АКФ

Энергетический спектр сигналов всегда положителен, мощность сигналов не может быть отрицательной. Следовательно, АКФ не может иметь формы прямоугольного импульса, т. к. преобразование Фурье прямоугольного импульса – знакопеременный интегральный синус. На АКФ не должно быть и разрывов первого рода (скачков), т. к. с учетом четности АКФ любой симметричный скачек по координате ±t порождает “разделение” АКФ на сумму определенной непрерывной функции и прямоугольного импульса длительностью 2t с соответствующим появлением отрицательных значений в энергетическом спектре. Пример последнего приведен на рис. 6.3.1 (графики функций приведены, как принято для четных функций, только своей правой частью).

АКФ достаточно протяженных сигналов обычно ограничиваются по размерам (исследуются ограниченные интервалы корреляции данных от –Т/2 до Т/2). Однако усечение АКФ, это умножение АКФ на прямоугольный селектирующий импульс длительностью Т, что в частотной области отображается сверткой фактического спектра мощности со знакопеременной функцией интегрального синуса sinc(wT/2). С одной стороны, это вызывает определенное сглаживание спектра мощности, что зачастую бывает полезным, например, при исследовании сигналов на значительном уровне шумов. Но, с другой стороны, может происходить и существенное занижение величины энергетических пиков, если в сигнале имеются какие-либо гармонические составляющие, а также появление отрицательных значений мощности на краевых частях пиков и скачков. Пример проявления данных факторов приведен на рис. 6.3.2.

Рис. 6.3.2. Вычисление энергетического спектра сигнала по АКФ разной длины.

Как известно, спектры мощности сигналов не имеют фазовой характеристики и по ним невозможно восстановление сигналов. Следовательно, АКФ сигналов, как временное представление спектров мощности, также не имеет информации о фазовых характеристиках сигналов и восстановление сигналов по АКФ невозможно. Сигналы одной формы, сдвинутые во времени, имеют одинаковые АКФ. Больше того, сигналы разной формы могут иметь сходные АКФ, если имеют близкие спектры мощности.

Перепишем уравнение (6.3.1) в следующей форме

s(t) s(t-t) dt = (1/2p)S(w) S*(w) exp(jwt) dw,

и подставим в это выражение значение t=0. Полученное равенство хорошо известно и называется равенством Парсеваля

s2(t) dt = (1/2p)|S(w)|2 dw.

Оно позволяет вычислять энергию сигнала, как по временной, так и по частотной области описания сигналов.

Интервал корреляции сигнала является числовым параметром оценки ширины АКФ и степени значимой корреляции значений сигнала по аргументу.

Если допустить, что сигнал s(t) имеет примерно равномерный энергетический спектр со значением W0 и с верхней граничной частотой до wв (форма центрированного прямоугольного импульса, как, например, сигнал 1 на рис. 6.3.3 с fв=50 Гц в одностороннем представлении), то АКФ сигнала определится выражением:

Bs(t) = (Wo/p)cos(wt) dw = (Wowв/p) sin(wвt)/(wвt).

Интервалом корреляции сигнала tк считается величина ширины центрального пика АКФ от максимума до первого пересечения нулевой линии. В данном случае для прямоугольного спектра с верхней граничной частотой wв первое пересечение нуля соответствует sinc(wвt) = 0 при wвt = p, откуда:

tк = p/wв =1/2fв. (6.3.4)

Интервал корреляции тем меньше, чем выше верхняя граничная частота спектра сигнала. Для сигналов с плавным срезом по верхней граничной частоте роль параметра wв играет средняя ширина спектра (сигнал 2 на рис. 6.3.3).

Спектральная плотность мощности статистических шумов при единичном измерении представляет собой случайную функцию Wq(w) со средним значением Wq(w) Þ sq2, где sq2 – дисперсия шумов. В пределе, при равномерном спектральном распределении шумов от 0 до ¥, АКФ шумов стремится к значению Bq(t) Þ sq2 при t Þ 0, Bq(t) Þ 0 при t ¹ 0, т. е. статистические шумы не коррелированны (tк Þ 0).

Практические вычисления АКФ финитных сигналов обычно ограничиваются интервалом сдвигов t = {0, (3-5)tk}, в котором, как правило, сосредоточена основная информация по автокорреляции сигналов.

Спектральная плотность ВКФ может быть получена на основании тех же соображений, что и для АФК, или непосредственно из формулы (6.3.1) заменой спектральной плотности сигнала S(w) на спектральную плотность второго сигнала U(w):

Bsu(t) = (1/2p)S*(w) U(w) exp(jwt) dw. (6.3.5)

Или, при смене порядка сигналов:

Bus(t) = (1/2p)U*(w) S(w) exp(jwt) dw. (6.3.5")

Произведение S*(w)U(w) представляет собой взаимный энергетический спектр Wsu(w) сигналов s(t) и u(t). Соответственно, U*(w)S(w) = Wus(w). Следовательно, как и АКФ, взаимнокорреляционная функция и спектральная плотность взаимной мощности сигналов связаны между собой преобразованиями Фурье:

Bsu(t) Û Wsu(w) º W*us(w). (6.3.6)

Bus(t) Û Wus(w) º W*su(w). (6.3.6")

В общем случае, за исключением спектров четных функций, из условия несоблюдения четности для функций ВКФ следует, что взаимные энергетические спектры являются комплексными функциями:

U(w) = Au(w) + j Bu(w), V(w) = Av(w) + j Bv(w).

Wuv = AuAv+BuBv+j(BuAv - AuBv) = Re Wuv(w) + j Im Wuv(w),

На рис. 6.3.4 можно наглядно видеть особенности формирования ВКФ на примере двух одинаковых по форме сигналов, сдвинутых относительно друг друга.

Рис. 6.3.4. Формирование ВКФ.

Форма сигналов и их взаимное расположение приведены на виде А. Модуль и аргумент спектра сигнала s(t) приведены на виде В. Модуль спектра u(t) тождественен модулю S(w). На этом же виде приведен модуль спектра взаимной мощности сигналов S(w)U*(w). Как известно, при перемножении комплексных спектров модули спектров перемножаются, а фазовые углы складываются, при этом для сопряженного спектра U*(w) фазовый угол меняет знак. Если первым в формуле вычисления ВКФ (6.2.1) стоит сигнал s(t), а сигнал u(t-t) на оси ординат стоить впереди s(t), то фазовые углы S(w) по мере увеличения частоты нарастают в сторону отрицательных значений углов (без учета периодического сброса значений на 2p), а фазовые углы U*(w) по абсолютным значениям меньше фазовых углов s(t) и нарастают (за счет сопряжения) в сторону положительных значений. Результатом умножения спектров (как это видно на рис. 6.3.4, вид С) является вычитание из фазовых углов S(w) значений углов U*(w), при этом фазовые углы спектра S(w)U*(w) остаются в области отрицательных значений, что обеспечивает сдвиг всей функции ВКФ (и ее пиковых значений) вправо от нуля по оси t на определенную величину (для одинаковых сигналов – на величину разности между сигналами по оси ординат). При смещении начального положения сигнала u(t) в сторону сигнала s(t) фазовые углы S(w)U*(w) уменьшаются, в пределе до нулевых значений при полном совмещении сигналов, при этом функция Bsu(t) смещается к нулевым значениям t, в пределе до обращения в АКФ (для одинаковых сигналах s(t) и u(t)).

Как известно для детерминированных сигналов, если спектры двух сигналов не перекрываются и, соответственно, взаимная энергия сигналов равна нулю, такие сигналы ортогональны друг другу. Связь энергетических спектров и корреляционных функций сигналов показывает еще одну сторону взаимодействия сигналов. Если спектры сигналов не перекрываются и их взаимный энергетический спектр равен нулю на всех частотах, то при любых временных сдвигах t друг относительно друга их ВКФ также равна нулю. А это означает, что такие сигналы являются некоррелированными. Это действительно как для детерминированных, так и для случайных сигналов и процессов.

Вычисление корреляционных функций при помощи БПФ является, особенно для длинных числовых рядов, в десятки и сотни раз более быстрым методом, чем последовательными сдвигами во временной области при больших интервалах корреляции. Суть метода вытекает из формул (6.3.2) для АКФ и (6.3.6) для ВКФ. Учитывая, что АКФ можно рассматривать как частный случай ВКФ при одном и том же сигнале, процесс вычисления рассмотрим на примере ВКФ для сигналов x(k) и y(k) с числом отсчетов К. Он включает:

1. Вычисление БПФ спектров сигналов x(k) → X(k) и y(k) → Y(k). При разном количестве отсчетов более короткий ряд дополняется нулями до размера большего ряда.

2. Вычисление спектров плотности мощности Wxy(k) = X*(k) Y(k).

3. Обратное БПФ Wxy(k) → Bxy(k).

Отметим некоторые особенности метода.

При обратном БПФ, как известно, вычисляется циклическая свертка функций x(k) ③ y(k). Если число отсчетов функций равно К, число комплексных отсчетов спектров функций также равно К, равно как и число отсчетов их произведения Wxy(k). Соответственно, число отсчетов Bxy(k) при обратном БПФ также равно К и циклически повторяется с периодом, равным К. Между тем, при линейной свертке полных массивов сигналов по формуле (6.2.5) размер только одной половины ВКФ составляет К точек, а полный двусторонний размер составляет 2К точек. Следовательно, при обратном БПФ с учетом цикличности свертки произойдет наложение на главный период ВКФ ее боковых периодов, как и при обычной циклической свертке двух функций.

На рис. 6.3.5 приведен пример двух сигналов и значения ВКФ, вычисленные линейной сверткой (В1ху) и циклической сверткой через БПФ (В2ху). Для исключения эффекта наложения боковых периодов необходимо дополнить сигналы нулями, в пределе, до удвоения количества отсчетов, при этом результат БПФ (график В3ху на рисунке 6.3.5) полностью повторяет результат линейной свертки (с учетом нормировки на увеличение количества отсчетов).

На практике число нулей продления сигналов зависит от характера корреляционной функции. Минимальное количество нулей обычно принимается равным значимой информационной части функций, т. е. порядка (3-5) интервалов корреляции.

литература

1. Баскаков цепи и сигналы: Учебник для вузов. - М.: Высшая школа, 1988.

19. Прикладной анализ временных рядов . – М.: Мир, 1982. – 428 с.

25. Сергиенко обработка сигналов. / Учебник для вузов. – СПб.: Питер, 203. – 608 с.

33. Цифровая обработка сигналов. Практический подход. / М., "Вильямс", 2004, 992 с.

О замеченных опечатках, ошибках и предложениях по дополнению: *****@***ru.

Copyright ©2008 Davydov А. V .

Математическое ожидание и дисперсия являются важными характеристиками случайного процесса, но они не дают достаточного представления о том, какой характер будут иметь отдельные реализации случайного процесса. Это хороню видно из рис. 9.3, где показаны реализации двух случайных процессов, совершенно различных по своей структуре, хотя и имеющих

одинаковые значения математического ожидания и дисперсии. Штриховыми линиями на рис. 9.3 показаны значения для случайных процессов.

Процесс, изображенный на рис. 9.3, а, от одного сечения к другому протекает сравнительно плавно, а процесс на рис. 9.3, б обладает сильной изменчивостью от сечения к сечению Поэтому статистическая связь между сечениями в первом случае больше, чем во втором, однако ни по математическому ожиданию, ни по дисперсии этого установить нельзя.

Чтобы в какой-то мере охарактеризовать внутреннюю структуру случайного процесса, т. е. учесть связь между значениями случайного процесса в различные моменты времени или, иными словами, учесть степень изменчивости случайного процесса, необходимо ввести понятие о корреляционной (автокорреляционной) функции случайного процесса.

Корреляционной функцией случайного процесса называют неслучайную функцию двух аргументов которая для каждой пары произвольно выбранных значений аргументов (моментов времени) равна математическому ожиданию произведения двух случайных величин соответствующих сечений случайного процесса:

где - двумерная плотность вероятности; - центрированный случайный процесс; - математическое ожидание (среднее значение) случайного процесса.

Различные случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Разделяют стационарность в узком смысле и стационарность в широком смысле.

Стационарным в узком смысле называют случайный процесс если его n-мерные функции распределения и плотности вероятности при любом не зависят от сдвига всех точек

Вдоль оси времени на одинаковую величину т. е.

Это означает, что два процесса имеют одинаковые статистические свойства для любого т. е. статистические характеристики стационарного случайного процесса неизменны во времени.

Стационарный случайный процесс - это своего рода аналог установившегося процесса в детерминированных системах. Любой переходный процесс не является стационарным.

Стационарным в широком смысле называют случайный процесс математическое ожидание которого постоянно:

а корреляционная функция зависит только от одной переменной - разности аргументов при этом корреляционную функцию обозначают

Процессы, стационарные в узком смысле, обязательно стационарны и в широком смысле; однако обратное утверждение, вообще говоря, неверно.

Понятие случайного процесса, стационарного в широком смысле, вводится тогда, когда в качестве статистических характеристик случайного процесса используются только математическое ожидание и корреляционная функция. Часть теории случайных процессов, которая описывает свойства случайного процесса через его математическое ожидание и корреляционную функцию, называют корреляционной теорией.

Для случайного процесса с нормальным законом распределения математическое ожидание и корреляционная функция полностью определяют его n-мерную плотность вероятности.

Поэтому для нормальных случайных процессов понятия стационарности в широком и узком смысле совпадают.

Теория стационарных процессов разработана наиболее полно и позволяет сравнительно просто производить расчеты для многих практических случаев. Поэтому допущение о стационарности иногда целесообразно делать также и для тех случаев, когда случайный процесс хотя и нестационарен но на рассматриваемом отрезке времени работы системы статистические характеристики сигналов не успевают сколько-нибудь существенно измениться. В дальнейшем, если не будет оговорено особо, будут рассматриваться случайные процессы, стационарные в широком смысле.

При изучении случайных процессов, стационарных в широком смысле, можно ограничиться рассмотрением только процессов с математическим ожиданием (средним значением), равным нулю, т. е. так как случайный процесс с ненулевым математическим ожиданием представляют как сумму процесса с нулевым математическим ожиданием и постоянной неслучайной (регулярной) величиной, равной математическому ожиданию этого процесса (см. далее § 9.6).

При выражение для корреляционной функции

В теории случайных процессов пользуются двумя понятиями средних значений. Первое понятие о среднем значении - это среднее значение по мнооюеству (или математическое ожидание), которое определяется на основе наблюдения над множеством реализацчй случайного процесса в один и тот же момент времени. Среднее значение по множеству принято обозначать волнистой чертой над выражением, описывающим случайную функцию:

В общем случае среднее значение по множеству является функцией времени

Другое понятие о среднем значении - это среднее значение по времени, которое определяется на основе наблюдения за отдельной реализацией случайного процесса на протяжении

достаточно длительного времени Т. Среднее значение по времени обозначают прямой чертой над соответствующим выражением случайной функции и определяют по формуле:

если этот предел существует.

Среднее значение по времени в общем случае различно для отдельных реализаций множества, определяющих случайный процесс. Вообще говоря, для одного и того же случайного процесса среднее по множеству и среднее по времени значения различны. Однако существует класс стационарных случайных процессов, называемых эргодическими, для которых среднее по множеству равно среднему по времени, т. е.

Корреляционная функция эргодического стационарного случайного процесса неограниченно убывает по модулю при

Однако надо иметь в виду, что не всякий стационарный случайный процесс является эргодическим, например случайный процесс каждая реализация которого постоянна во времени (рис. 9.4), является стационарным, но не эргодическим. В этом случае средние значения, определенные по одной реализации и в результате обработки множества реализаций, не совпадают. Один и тот же случайный процесс в общем случае может быть эргодическим по отношению к одним статистическим характеристикам и неэргодическим по отношению к другим. В дальнейшем будем считать, что по отношению ко всем статистическим характеристикам условия эргодичности выполняются.

Свойство эргодичности имеет очень большое практическое значение. Для определения статистических свойств некоторых объектов, если трудно осуществить одновременное наблюдение за ними в произвольно выбранный момент времени (например, при наличии одного опытного образца), его можно заменить длительным наблюдением за одним объектом. Иными словами, отдельная реализация эргодического случайного

процесса на бесконечном промежутке времени полностью определяет весь случайный процесс с его бесконечными реализациями. Собственно говоря, этот факт лежит в основе описанного ниже метода экспериментального определения корреляционной функции стационарного случайного процесса по одной реализации.

Как видно из (9.25), корреляционная функция представляет собой среднее значение по множеству. Для эргодических случайных процессов корреляционную функцию можно определить как среднее по времени от произведения , т. е.

где - любая реализация случайного процесса; х - среднее значение по времени, определяемое по (9.28).

Если среднее значение случайного процесса равно нулю то

Основываясь на свойстве эргодичности, можно дисперсию [см. (9.19)] определить как среднее по времени от квадрата центрированного случайного процесса, т. е.

Сравнивая выражения (9.30) и (9.32) при можно установить очень важную связь между дисперсией и корреляционной функцией - дисперсия стационарного случайного процесса равна начальному значению корреляционной функции:

Из (9.33) видно, что дисперсия стационарного случайного процесса постоянна, а следовательно, постоянно и среднее квадратическое отклонение:

Статистические свойства связи двух случайных процессов можно характеризовать взаимной корреляционной функцией которая для каждой пары произвольно выбранных значений аргументов равна

Для эргодических случайных процессов вместо (9.35) можно записать

где - любые реализации стационарных случайных процессов соответственно.

Взаимная корреляционная функция характеризует взаимную статистическую связь двух случайных процессов в разные моменты времени, отстоящие друг от друга на промежуток времени . Значение характеризует эту связь в один и тот же момент времени.

Из (9.36) следует, что

Если случайные процессы статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех равна нулю. Однако обратный вывод о том, что если взаимная корреляционная функция равна нулю, то процессы независимы, можно сделать лишь в отдельных случаях (в частности, для процессов с нормальным законом распределения), общей же силы обратный закон не имеет.

Заметим, что корреляционные функции могут вычисляться и для неслучайных (регулярных) функций времени. Однако когда говорят о корреляционной функции регулярной функции то под этим понимают просто результат формального

применения к регулярной функции операции, выражаемой интегралом:

Приведем некоторые основные свойства корреляционных функций

1. Начальное значение корреляционной функции [см. (9.33)] равно дисперсии случайного процесса:

2. Значение корреляционной функции при любом не может превышать ее начального значения, т. е.

Чтобы доказать это, рассмотрим очевидное неравенство из которого следует

Находим средние значения по времени от обеих частей последнего неравенства:

Таким образом, получим неравенство

3. Корреляционная функция есть четная функция , т. е.

Это вытекает из самого определения корреляционной функции. Действительно,

поэтому на графике корреляционная функция всегда симметрична относительно оси ординат.

4. Корреляционная функция суммы случайных процессов определяется выражением

где - взаимные корреляционные функции

Действительно,

5. Корреляционная функция постоянной величины равна квадрату этой постоянной величины (рис. 9.5, а), что вытекает из самого определения корреляционной функции:

6. Корреляционная функция периодической функции, например представляет собой косинусоиду (рис. 9-5, 5), т. е.

имеющую ту же частоту что и и не зависящую от сдвига фазы

Чтобы доказать это, заметим, что при нахождении корреляционных функций периодических функций можно использовать следующее равенство:

где - период функции

Последнее равенство получается после замены интеграла с пределами от -Т до Т при Т со суммой отдельных интегралов с пределами от до , где и использования периодичности подынтегральных функций.

Тогда, учитывая сказанное выше, получим т.

7. Корреляционная функция временной функции, разлагаемой в ряд Фурье:

Рис. 9.5 (см. скан)

имеет на основании изложенного выше следующий вид:

8. Типичная корреляционная функция стационарного случайного процесса имеет вид, представленный на рис. 9.6. Ее можно аппроксимировать следующим аналитическим выражением:

С ростом связь между ослабевает и корреляционная функция становится меньше. На рис. 9.5, б, в приведены, например, две корреляционные функции и две соответствующие им реализации случайного процесса. Легко заметить, что корреляционная функция, соответствующая случайному процессу с более тонкой структурой, убывает быстрее Другими словами, чем более высокие частоты присутствуют в случайном процессе, тем быстрее убывает соответствующая ему корреляционная функция.

Иногда встречаются корреляционные функции, которые могут быть аппроксимированы аналитическим выражением

где - дисперсия; - параметр затухания; - резонансная частота.

Корреляционные функции подобного вида имеют, например, случайные процессы типа турбулентности атмосферы, фединга радиолокационного сигнала, углового мерцания цели и т. п. Выражения (9.45) и (9.46) часто используются для аппроксимации корреляционных функций, полученных в результате обработки экспериментальных данных.

9. Корреляционная функция Стационарного случайного процесса, на которой наложена периодическая составляющая с частотой также будет содержать периодическую составляющую той же частоты.

Это обстоятельство можно использовать как один из способов обнаружения «скрытой периодичности» в случайных процессах, которая может не обнаруживаться при первом взгляде на отдельные записи реализации случайного процесса.

Примерный вид корреляционной функции процесса содержащего в своем составе кроме случайной также и периодическую составляющую, показан на рис. 9.7, где обозначена корреляционная функция, соответствующая случайной составляющей. Чтобы выявить скрытую периодическую составляющую (такая задача возникает, например, при выделении малого полезного сигнала на фоне большой помехи), лучше всего определить корреляционную функцию для больших значений когда случайный сигнал уже сравнительно слабо коррелирован и случайная составляющая слабо сказывается на виде корреляционной функции.

Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

[Взаимная корреляционная функция]

[Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Свойства автокорреляционной функции:

  • 1) R(τ)=R(-τ). Функция R(τ) – является чётной.
  • 2) Если х(t) – синусоидальная функция времени, то её автокорреляционная функция – косинусоидальная той же частоты. Информация о начальной фазе теряется. Если x(t)=A*sin(ωt+φ), то R(τ)=A 2 /2 * cos(ωτ).
  • 3) Функция автокорреляции и спектра мощности связаны преобразованием Фурье.
  • 4) Если х(t) – любая периодическая функция, то R(τ) для неё может быть представлена в виде суммы автокорреляционных функций от постоянной составляющей и от синусоидально изменяющейся составляющей.
  • 5) Функция R(τ) не несёт никакой информации о начальных фазах гармонических составляющих сигнала.
  • 6) Для случайной функции времени R(τ) быстро уменьшается с увеличением τ. Интервал времени, после которого R(τ) становится равным 0 называется интервалом автокорреляции.
  • 7) Заданной x(t) соответствует вполне определённое R(τ), но для одной и той же R(τ) могут соответствовать различные функции x(t)

Исходный сигнал с шумами:

Автокорреляционная функция исходного сигнала:

Свойства взаимной корреляционной функции (ВКФ):

  • 1) ВКФ не является ни чётной ни нечётной функ¬цией, т.е. R ху (τ) не равно R ху (-τ).
  • 2) ВКФ остаётся неизменной при перемене чередования функций и изменений знака аргумента, т.е. R ху (τ)=R ху (-τ).
  • 3) Если случайные функции x(t) и y(t) не содержат постоянных составляющих и создаются независимыми источниками, то для них R ху (τ) стремится к 0. Такие функции называются некоррелированными.

Исходный сигнал с шумами:

Меандр той же частоты:

Корреляция исходного сигнала и меандра:



Внимание! Каждый электронный конспект лекций является интеллектуальной собственностью своего автора и опубликован на сайте исключительно в ознакомительных целях.

Непрерывные ВКФПоследовательность данных x n и y n можнополучить как выборку зависимых от времени функций x(t) и y(t) , т.е х(nT a) =x n и y(nT a) =y n C помощью ковариантности и коэфициента кореляции можно проверить кореляцию значений, выборки которых были сделаны в одно время. Дальше можно проверить, возможна ли зависимость между существующим и преведущим сигналом. Согласнос этим вычисляеться ковариантность из выборки, сделаной в точке времени nT a , в точке времени (n-к)T a преведущего сигнала.Для каждого значения кT a (к=1,2…) обоих сигналов при некоторых обстоятельствах возникают новыезначения ковариантности, а отсюда и функция, зависимая от времени задержки кT a Она имеет собственное название:взаимно кореляционная функция. Сигналов х и у.

Пусть даны средние значения х и у ф-ций X(t), Y(t):

Дисперсия определяется как

Ковариантность между сигналами X(t), Y(t) вычисляется как

При знакопеременных величинах линейные средние значения = 0 и остаются только

для получения корреляционных ф-ций необходимо задержать оба зависимых то времени сигнала на t. Для сигналов без постоянной составляющей взаимокорреляционная функция вычисляется как

Дискретные взаимокорреляционные функции.:

Корреляционный анализ используется для определения статических связей между случайными процессами, либо статических связей между фазами одного и того же случайного процесса. Существует 2 типа кореляционных ф-ций: взаимокорреляционные ф-ции, автокорреляционные ф-ции. Взаимокорреляционная ф-ция характеризует связь между двумя случайными процессами или последовательностями:

Для дискретной ф-ции промежуток t движется на шаг дискретизации по оси t, полученные в каждой точке дискрет-ции значен. x(t) и y(t-t) перемножаются, произведения суммируются и делятся на 2T

34. Кореляционный анализ. Ковариантность. Коэфициент кореляции.

Корреляционный анализ.Ковариантность:

КА используется для определения статистических связей между случайными процессами либо статистических связей между фазами одного и того же случайного процесса. В последнем случае анализ называется ортокорреляционным. КА применяется для детерминированных и стохастичных сигналов.

Ковариантность. Пусть мы имеем две случайные последовательности Xn и Yn. Случайная последовательность может характеризоваться различным уровнем случайности, т.е. соседние отсчеты могут быть совершенно не зависимы или могут иметь определенную степень зависимости. Предположим что мы знаем средние значения Xср и Yср:

Мера и связи для обоих последовательностей Xn и Yn является ковариантность sxy:

Если случайные последовательности Xn и Yn центрированы (вычтено среднее), то:



Коэффициент корреляции:

Коеф. корел. r - это нормированная ковариантность, причем

1 £ r £ 1. Нормирование происходит за счет деления ковариантности на произведение стандартных отклонений sх и sу:

Связь между последовательностями данных Xn и Yn, а также значения коэффициента корреляции можно проиллюстрировать, если изобразить соответствующие пары значений (Xn и Yn), в координатной системе X/Y. Если обе последовательности данных расположены в одном направлении, то они ковариантны и коэффициент корреляции будет положительным, если в противоположных - то отрицательным. Если коэф. коррел. = 0 то между величинами зависимость отсутствует. Абсолютная величина коэффициента корреляции будет тем ближе к 1, чем больше обе переменные зависят одна от другой.


2. Аппроксимация. Аппр-ция линейным полиномом.

Интерполяция – кривая проходит через все точки.

Аппроксимация – кривая может вообще не проходить через точки.

(1/N)å|Dy i | где i=1,N.

Полученная сумма не зависит от N. Поленом высокой степени не аппроксимируется, поэтому ограничиваются полиномом 3-го порядка.

Если на десяток точек попадается точка А, к-рая сильно отклоняется, то можно ее исключить.

Существуют два метода:

1) сумма абсолютных разниц |f(x n)-y n | должна приближаться к минимуму.

2) сумма квадратов разницы должна приближаться к минимуму Этот метод наименьших вкадратов

В системах передачи информации очень часто возникает необходимость в сигналах со специально выбранными свойствами. При этом выбор сигналов диктуется не технической простотой их генерирования и преобразования, а возможностью оптимального решения поставленной задачи. К таким задачам обычно относят синхронизацию, распознавание, измерения, повышение скрытности и помехозащищённости и т.п.

Точность решения этих задач определяется степенью отличия друг от друга сигнала s(t) и его «копии» s(t-x), смещенной во времени .

Для количественной оценки степени различия сигналов s(t) и s(t- т) применяют автокорреляционную функцию (АКФ) В(т) сигнала s(t). Ее определяют как скалярное произведение сигнала и его задержанной копии:

Если s(t) носит импульсный характер, то этот интеграл заведомо существует.

Основные свойства автокорреляционной функции:

1. - при т =0 АКФ равна энергии сигнала.

2. - т.е. АКФ является чётной функцией.

3. - при любом т модуль АКФ не превосходит энергии сигнала.

В качестве примера рассмотрим вид АКФ прямоугольного видеоимпульса с амплитудой U и длительностью т н (рис. 1.13).


Рис. 1.13. АКФ прямоугольного импульса На рис. 1.13 затененные области показывают наложение сигналов, при котором произведение s(t)s(t-i) отлично от нуля. Это будет при |т|

Таким образом, АКФ является симметричной кривой с центральным максимумом, который всегда положителен. В зависимости от вида сигнала s(t) АКФ убывает монотонно или колебательно.

АКФ сигнала тесно связана с распределением его энергии по спектру частот соотношением

Можно оценивать корреляционные свойства сигналов, исходя из распределения энергии по спектру. Чем шире полоса частот сигнала, тем уже по времени АКФ. Сигнал с узкой АКФ лучше с точки зрения возможности точного измерения момента совпадения двух одинаковых по форме сигналов x(t-ij) и x(t-x) при изменении задержки ij. При проектировании современных систем радиосвязи сигнал выбирают широкополосным.

В принципе можно решать задачу синтеза сигнала с заданными корреляционными свойствами. Примером сигналов с наилучшей структурой АКФ могут служить дискретные сигналы (коды) Баркера, комплементарные коды и другие сложные сигналы. Корреляционные свойства этих сигналов оптимальны применительно к решению задачи обнаружения сигнала и измерения его параметров в радиолокации, в радиосвязи и других областях.

Два сигнала x(t) и y(t) могут отличаться как по своей форме, так и взаимным расположением на оси времени. Для оценки этих различий применяют взаимно корреляционную функцию (ВКФ) В ху (х). ВКФ двух вещественных сигналов x(t) и y(t) определяется как скалярное произведение вида

Свойства взаимно корреляционной функции сигналов с ограниченной энергией:

1. В ху (0) не обязательно является максимальным значением

2. - энергии сигналов хиу.

3. При перемене порядка индексации в обозначении ВКФ и соблюдении формы записи, указанной в выражении (31), происходит инверсия графика ВКФ относительно оси ординат х = О

4. (как и для АКФ)

АКФ является частным случаем ВКФ.

Корреляционная функция сигнала с неограниченной энергией.

Для таких сигналов определение АКФ по формуле (1.31) невозможно в силу бесконечности их энергии. К таким сигналам можно отнести периодические сигналы. Энергетическую оценку моделей таких сигналов проводят вводя среднюю удельную мощность

где Т - произвольный временной интервал.

Для периодических сигналов, энергия которых бесконечно велика по определению, усреднение удобно проводить по периоду Т

Для гармонического сигнала x(t) = Ucoscoot средняя удельная мощность Р = U 2 /2. Применяя формулу (33) к периодическому сигналу x ncp (t), представленному в видеряда Фурье

и принимая во внимание условие ортогональности

и

для средней мощности Р такого сигнала получим

Полная средняя мощность периодического сигнала равна сумме средних мощностей составляющих сигнал гармоник, включая, естественно, мощность постоянной составляющей (нулевой гармоники).

Для непрерывного и периодического сигнала АКФ определяется по формуле

с усреднением по бесконечному интервалу Т.

Для гармонического сигнала АКФ имеет вид

В отличие от АКФ и ВКФ финитных сигналов, АКФ периодической функции сама является периодической функцией и имеет размерность мощности. Значения аргумента т, для которых В(т) = 0, Определяют временные сдвиги сигнала и его копии, при которых корреляция отсутствует. Значение В(0) периодического сигнала численно равно мощности сигнала; для гармонического сигнала В(0) = U 2 /2.



Похожие статьи