Информация, сигнал и его основные характеристики введение. Современные принципы управления тп



бет3/37
Дата27.07.2022
өлшемі2.99 Mb.
#459814
түріГлава
1   2   3   4   5   6   7   8   9   ...   37
C fakepathMhazir - Kommunikasiya v in sisteml rinin saslar

Рост объема информации. Энтропия

Следует отметить, что во время передачи информации одним из главных величин является повышение количества информации.


Представим, что информация передается с датчика на приемник (рис. 1.3.).



Рис. 1.3. Обмен информацией между датчиком и приемником


При этом вероятность передачи информации от датчика равна P1, а вероятность получения ее приемником равна P2. При этом логарифм отношения этих вероятностей называют приростом количества информации и он выражается в следующем виде:



В информационной технике информация от датчика принимается как вероятность передачи P1=1. В этом случае прирост количества информации будет определяться в нижеследующем виде:
.
Из теории информации известно, что должно выполняться условие:
.
С этой точки зрения . Например,

Допустим, от датчика приемнику передается определенная информация. Это информация набор определенных событий. В соответствии с каждым событием передаются определенные символы. Например,

При этом A, B, C - это события, a NA, NB, NC - это соответствующие им символы. В этом случае общее количество передаваемых символов будет определяться по следующей формуле:
q = NA + NB + NC +...
Прирост количества информации, соответствующий каждому событию определяется следующим образом:
ΔIA = logPA
ΔIB = logPB
ΔIC = logPC
Применив принцип суперпозиции к приросту количества информации:

В этом случае, прирост количества информации, падающий на каждый символ определяется следующим образом:

Принимая во внимание, что , то прирост количества информации, падающий на каждый символ можно показать в следующем виде:
.
Эту величину называют энтропией. Таким образом, под энтропией понимается прирост количества информации, падающий на один символ. Энтропия зависит от вероятностей передачи и приема информации. При этом энтропия принимает максимальное значение, когда события равной вероятности (рис. 1.4).

Рис. 1.4. Зависимость энтропии от вероятности события



    1. Достарыңызбен бөлісу:
1   2   3   4   5   6   7   8   9   ...   37




©dereksiz.org 2024
әкімшілігінің қараңыз

    Басты бет