Опубликован: 11.04.2007 | Доступ: свободный | Студентов: 5905 / 2148 | Оценка: 4.37 / 4.24 | Длительность: 11:19:00
Лекция 8:

Сжатие информации с потерями

< Лекция 7 || Лекция 8: 123 || Лекция 9 >

Таким образом, при таком кодировании, если сигнал 1 имеет длительность \tau, то 0 - 2\tau.

Рассчитаем емкость этого канала. Нужно рассчитать N(T). Пусть n=T/\tau, тогда получается, что нужно рассчитать сколькими способами можно разбить отрезок длины n отрезками длины 2 и 1. Получаем, что N(T)=S_n=C^n_n + C^{n-2}_{n-1} + C^{n-4}_{n-2} + \cdots, где первое слагаемое - это количество способов, которыми можно разбить отрезок длины n n отрезками длины 1, второе слагаемое - это количество способов, которыми можно разбить отрезок длины n (n-2) отрезками длины 1 и одним отрезком длины 2, третье слагаемое - это количество способов, которыми можно разбить отрезок длины n (n-4) отрезками длины 1 и двумя отрезками длины 2 и т.д. Таким образом, S_1=1. Вследствие того, что C^k_m+C^{k+1}_m=C^{k+1}_{m+1} для любых k<m, получается, что

$$\matrix{S_{n-1}&=&&&C^{n-1}_{n-1}&+&C^{n-3}_{n-2}&+&C^{n-5}_{n-3}&+ \cdots\cr\\
S_n&=&C^n_n&+&C^{n-2}_{n-1}&+&C^{n-4}_{n-2}&+&C^{n-6}_{n-3}&+\cdots\cr\\
S_{n+1}&=&C^{n+1}_{n+1}&+&C^{n-1}_n&+&C^{n-3}_{n-1}&+&C^{n-5}_{n-2}&+ \cdots\cr},$$
т.е. S_{n+1}=S_n+S_{n-1} при n>1. Если положить, что S_0=1, то S_0,S_1,\ldots - это последовательность 1,1,2,3,5,8,13,21,34,\ldots, т.е. числа Фибоначчи. C XIX века для вычисления n -го члена последовательности Фибоначчи известна формула
S_n={1\over\sqrt5}\biggl(\Bigl({1+\sqrt5\over2}\Bigr)^{n+1}-
\Bigl({1-\sqrt5\over2}\Bigr)^{n+1}\biggr).
Таким образом, C=\lim\limits_{T\rightarrow\infty}{\log_2N(T)\over T}=
\lim\limits_{n\rightarrow\infty}{\log_2S_n\over n\tau}=
{\log_2\textstyle{1+\sqrt5\over2}\over\tau}\approx0.69/\tau бод.

При использовании частотной модуляции на практике нули, как правило, кодируются в два раза плотнее. Это достигается тем, что учитываются не уровни сигнала, а смена уровня (полярности). Если частота \nu соответствует 1, то с частотой 2\nu производится проверка уровня сигнала. Если он меняется, то это сигнал 1, если нет, то - 0. На практике частота \nu - это частота синхронизации, т.е. частота импульса, который независимо от данных меняет полярность сигнала. 0 не генерирует импульса смены полярности, а 1 генерирует (См. рис. 7.3).


Рис. 7.3.

Для записи информации на первые магнитные диски и ленты использовался метод FM. На гибкие диски 5.25" и 3.5" информация записывается методом MFM (Modified FM) - модификацией метода FM, позволяющей в 2 раза повысить плотность записи. Это достигается тем, что частота синхронизации увеличивается вдвое. MFM можно использовать с теми же физическими каналами, что и FM, потому что импульсы синхронизации не передаются перед 1 и первым 0 в серии нулей (См. рис. 7.4).


Рис. 7.4.

Метод записи с групповым кодированием, RLL - Run Limited Length, не использует импульсы синхронизации, применяется, в частности, в жестких дисках "винчестер'' и существует в нескольких разновидностях. Одна из них основана на замене тетрад байта на 5-битные группы. Эти группы подбираются таким образом, чтобы при передаче данных нули не встречались подряд более двух раз, что делает код самосинхронизирующимся. Например, тетрада 0000 заменяется группой бит 11001, тетрада 1000 - 11010, тетрада 0001 - 11011, тетрада 1111 - 01111 (См. рис. 7.5). Существуют разновидности RLL, в которых заменяются последовательности бит различной длины. Кодирование MFM или FM можно представить как частный случай RLL.


Рис. 7.5.

При необходимости передачи записанных с помощью некоторого кода сообщений по данному каналу приходиться преобразовывать эти сообщения в допустимые сигналы канала, т.е. производить надлежащее кодирование, а при приеме данных - декодирование. Кодирование целесообразно производить так, чтобы среднее время, затрачиваемое на передачу, было как можно меньше. Получается, что исходному входному алфавиту нужно однозначно сопоставить новый алфавит, обеспечивающий большую скорость передачи. В этом случае возникает явление задержки или запаздывания.

Поясним последнее на примере. Пусть источник сообщений посылает через промежутки времени длиной 1/u (т.е. со скоростью u ) независимые символы x_1,x_2,x_3,x_4 с вероятностями 1/2, 1/4, 1/8, 1/8, т.е., можно сказать, что источник характеризуется некоторой д.с.в. X. Пусть канал - без шумов. Символ либо передается по каналу, если тот свободен, либо ожидает (помещается в память) до тех пор, пока канал не освободится. Выберем в качестве кода для передачи символов источника по каналу следующий: x_1 -00, x_2 -01, x_3 -10, x_4 -11. Пусть время, необходимое для передачи как 0, так и 1, равно \tau. Тогда если 2\tau\le1/u, то за время между появлениями двух последовательных значений X кодовое значение успеет передаться и канал освобождается. Если же 2\tau>1/u, то n -й символ появится в момент n/u, а его кодовое обозначение будет передано по каналу в момент 2n\tau. Следовательно, промежуток времени между появлением n -го символа и моментом его получения равен n(2\tau-1/u), т.е. этот промежуток стремится к бесконечности при n\rightarrow\infty и передача будет вестись с неограниченным запаздыванием. Выбором более удачного кода (например, Хаффмена) можно увеличить скорость передачи.

Следующий, основной факт теории передачи информации или основная теорема о кодировании при наличии помех позволяет при знании емкости канала и энтропии передатчика вычислить максимальную скорость передачи данных в канале.

Теорема Шеннона. Пусть источник характеризуется д.с.в. X. Рассматривается канал с шумом, т.е. для каждого передаваемого сообщения задана вероятность \varepsilon его искажения в процессе передачи (вероятность ошибки). Тогда существует такая скорость передачи u, зависящая только от X, что \forall\varepsilon>0\; \exists
u'<u сколь угодно близкая к u такая, что существует способ передавать значения X со скоростью u' и с вероятностью ошибки меньшей \varepsilon, причем

u={C\over HX}.
Упомянутый способ образует помехоустойчивый код.

Кроме того, Фэно доказана120 следующая обратная теорема о кодировании при наличии помех. Для u'>u можно найти такое положительное число \varepsilon, что в случае передачи информации по линии связи со скоростью u' вероятность ошибки \varepsilon передачи каждого символа сообщения при любом методе кодирования и декодирования будет не меньше \varepsilon ( \varepsilon очевидно растет вслед за ростом u' ).

Упражнение 33 По каналу связи без шума могут передаваться четыре сигнала длительностью 1 мс каждый. Вычислить емкость такого канала.

Упражнение 34 Три передатчика задаются случайными величинами со следующими законами распределениями вероятностей:

  1. P(X_1=-1)=1/4, P(X_1=0)=1/2, P(X_1=1)=1/4 ;
  2. P(X_2=-1)=1/3, P(X_2=0)=1/3, P(X_2=1)=1/3 ;
  3. P(X_3=n)=2^{-n},\, n=1, 2, \ldots

Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу каждым из передатчиков, обеспечивающую сколь угодно высокую надежность передачи.

< Лекция 7 || Лекция 8: 123 || Лекция 9 >