Теория электрической связи 

Глава 1. Мера количества информации
в дискретном сообщении

назад | оглавление | вперёд

 

Система связи служит для передачи сообщений от отправителя к по­лучателю. Однако не всякое сообщение содержит информацию. Инфор­мация - это совокупность сведений об объекте или явлении, которые уве­личивают знания потребителя об этом объекте или явлении.

В математической теории связи (теории информации) исходят из того, что в некотором сообщении  xi количество информации I(xi) зависит не от её кон­кретного содержания, степени важности и т.д., а от того, каким образом выбирается данное сообщение из общей совокупности возможных сооб­щений.

В реальных условиях выбор конкретного сообщения производится с некоторой априорной вероятностью p(xi). Чем меньше эта вероятность, тем больше информации содержится в данном сообщении.

При определении количества информации исходят из следующих тре­бований:

1. Количественная мера информации должна обладать свойством ад­дитивности: количество информации в нескольких независимых сообщениях должно равняться сумме количества информации в каждом сообщении.

2. Количество информации о достоверном событии (p(xi)=1) должно равняться нулю, так как такое сообщение не увеличивает наших знаний о данном объекте или явлении.

Указанным требованиям удовлетворяет логарифмическая мера, определяемая формулой

                   .                                        (1)

Чаще всего логарифм берется с основанием 2, реже - с основанием e:

   двоичных единиц информации (бит),

  натуральных единиц информации (нит).

Одну двоичную единицу информации содержит сообщение, вероят­ность выбора которого равняется 1/2. В этом случае

                    дв. ед. инф. (бит).

При применении натуральных логарифмов одну натуральную единицу информации содержит сообщение, вероятность выбора которого равняется 1/e:

                    нат. ед. инф. (нит).

Учитывая, что в практике передачи и преобразования информации широко применяются двоичные символы, двоичная логика, двоичные источники сообщений и двоичные каналы передачи, наиболее часто используется двоичная единица информации(бит).

Хотя при определении количества информации под со­общениями можно понимать любые фразы или телеграфные сообщения,  мы здесь элементарными сообщениями будем называть отдельные буквы или слова. При использовании двухуровневых дискретных сигналов, например, мы будем пользоваться элементарными двоичными сигналами “1” и “0”, называя их буквами. Таким образом, ал­фавит двоичного источника состоит всего из двух букв, из которых можно строить более длинные комбинации, называемые кодовыми словами.

Вопросы к главе 1

  1. Что такое информация ? Как определяется количество информации в сообщении ?
  2. Почему для определении количества информации в сообщении используется логарифмическая мера ?
  3. Какое сообщение содержит одну двоичную единицу информации ?
  4. Какое сообщение содержит одну натуральную единицу информации ?

назад | оглавление | вперёд