Спектральный анализ Гильберта

Спектральный анализ Гильберта — это метод анализа сигналов, применяющий преобразование Гильберта для вычисления мгновенной частоты сигналов в соответствии с

ω = г θ ( т ) г т . {\displaystyle \omega ={\frac {d\theta (t)}{dt}}.\,}

После выполнения преобразования Гильберта над каждым сигналом мы можем выразить данные в следующем виде:

Х ( т ) = дж = 1 н а дж ( т ) эксп ( я ω дж ( т ) г т ) . {\displaystyle X(t)=\sum _{j=1}^{n}a_{j}(t)\exp \left(i\int \omega _{j}(t)dt\right).\,}

Это уравнение дает как амплитуду, так и частоту каждого компонента как функции времени. Оно также позволяет нам представить амплитуду и мгновенную частоту как функции времени на трехмерном графике, на котором амплитуда может быть очерчена на плоскости частота-время. Это распределение амплитуды по частоте-времени обозначается как спектр амплитуды Гильберта или просто спектр Гильберта .

Метод спектрального анализа Гильберта является важной частью преобразования Гильберта–Хуанга .

Ссылки

  • Алан В. Оппенгейм и Рональд В. Шефер, « Дискретная обработка сигналов », Серия «Обработка сигналов» издательства Prentice-Hall, 2-е изд., 1999.
  • Хуанг и др. «Эмпирическое модовое разложение и спектр Гильберта для нелинейного и нестационарного анализа временных рядов». Proc. R. Soc. Lond. A (1998) 454 , 903–995
Взято с "https://en.wikipedia.org/w/index.php?title=Гильбертов_спектральный_анализ&oldid=1267949916"