Энтропия непрерывного источника информации должна быть бесконечна, т. к. неопределенность выбора из бесконечно большого числа возможных состояний бесконечно велика. (на самом деле это только некорректная математическая модель, так как реальные сигналы занимают ограниченный спектр частот, а значит, могут быть представлены дискретными значениями через некоторый шаг, определяемый теоремой Котельникова; кроме того реальные сигналы не могут быть измерены с бесконечной точностью, так как имеются шумы линии и ошибка измерения, а это значит, что по шкале динамического диапазона непрерывный сигнал тоже может быть представлен конечным числом различимых квантовых уровней - примечание К.А. Хайдарова)
Разобьем диапазон изменения непрерывной случайной величины U на конечное число n малых интервалов Du. При реализации значений u в интервале (un, un+Du) будем считать, что реализовалось значение un дискретной случайной величины U', вероятность реализации которой:
p(un<u<un+Du) =p(u) du » p(un) Du.
Энтропия дискретной величины U':
H(U') = -p(un) Du log (p(un) Du).
Заменяем log (p(u
n) Du) = log p(un)+log Du, принимаем во внимание, что сумма p(un)Du по всем возможным значениям un равна 1, и получаем:H(U') = -p(un) Du log p(un) – log Du. (1.4.4)
В пределе, при
Du ® 0, получаем выражение энтропии для непрерывного источника:H(U) = -p(u) log p(u) du –. (1.4.5)
Значение энтропии в (1.4.5), как и ожидалось, стремится к бесконечности за счет второго члена выражения. Для получения конечной характеристики информационных свойств непрерывных сигналов используют только первый член выражения (1.4.5), получивший название дифференциальной энтропии
. Ее можно трактовать, как среднюю неопределенность выбора произвольной случайной величины по сравнению со средней неопределенностью выбора случайной величины U', имеющей равномерное распределение в диапазоне (0-1). Действительно, для такого распределения p(un) = 1/N, Du = 1/N, и при N ® Ґ из (1.4.4) следует:H(U') = - (log N)/N - log Du ® -.
Соответственно, разность энтропий дает дифференциальную энтропию:
h(U) = H(U) – H(U') = -p(u) log p(u) du. (1.4.6)
Дифференциальная энтропия не зависит от конкретных значений величины U:
h(U+a) = h(U), a = const,
но зависит от масштаба ее представления:
h(kU) = h(U) + log k.
Практика анализа и обработки сигналов обычно имеет дело с сигналами в определенном интервале [a, b] их значений, при этом максимальной дифференциальной энтропией обладает равномерное распределение значений сигналов:
h(U) = -p(u) log p(u) du = log (b-a).
По мере сужения плотности распределения значение h(U) уменьшается, и в пределе при p(u)
® d(u-c), a<c<b стремится к нулю.Вещество и поле не есть что-то отдельное от эфира, также как и человеческое тело не есть что-то отдельное от атомов и молекул его составляющих. Оно и есть эти атомы и молекулы, собранные в определенном порядке. Также и вещество не есть что-то отдельное от элементарных частиц, а оно состоит из них как базовой материи. Также и элементарные частицы состоят из частиц эфира как базовой материи нижнего уровня. Таким образом, всё, что есть во вселенной - это есть эфир. Эфира 100%. Из него состоят элементарные частицы, а из них всё остальное. Подробнее читайте в FAQ по эфирной физике.