КАНА́Л СВЯ́ЗИ
-
Рубрика: Математика
-
-
Скопировать библиографическую ссылку:
КАНА́Л СВЯ́ЗИ в теории информации, математич. модель устройства, предназначенного для передачи информации. Информации теория отвлекается от конкретной природы таких устройств, подобно тому как геометрия изучает геометрич. фигуры и тела, отвлекаясь от материала, из которого они изготовлены. Разл. конкретные системы связи рассматриваются только с точки зрения количества информации, которое может быть надёжно передано с их помощью. В теории информации К. с. задаётся множеством $\{x\}$ допустимых сообщений (сигналов) на входе, множеством $\{y\}$ сообщений (сигналов) на выходе и набором условных вероятностей $p(y∣x)$ получения сигнала $y$ на выходе при входном сигнале $x$. Эти условные вероятности описывают статистич. свойства шумов (помех), искажающих сигналы в процессе передачи. В случае когда $p(y∣x)=1$ при $y=x$ для всех $x∈\{x\}$, К. с. называется каналом без шумов. В соответствии со структурой входных и выходных сигналов выделяют дискретные и непрерывные К. с. В дискретных К. с. сигналы на входе и на выходе представляют собой последовательности букв из одного и того же или разл. алфавитов (см. Код). В непрерывных К. с. входной и выходной сигналы суть функции непрерывного параметра, который обычно является временем. Возможны также смешанные случаи, но обычно предпочитают рассматривать один из двух указанных случаев.
Способность К. с. передавать информацию характеризуется некоторым числом – пропускной способностью (ёмкостью) канала, которая определяется как макс. количество информации относительно сигнала на входе, содержащееся в сигнале на выходе (в расчёте на единицу времени). Точнее, пусть входной сигнал $X$ принимает значения $x∈\{x\}$ с вероятностями $p(x)$. Тогда по формулам теории вероятностей можно рассчитать как вероятности $q(y)$ того, что сигнал $Y$ на выходе примет значение $y$, $q(y)=\sum_xp(x)p(y|x)$, так и вероятности $p(x, y)$ совмещения событий $X=x, Y=y, p(x, y)=p(x)p(y|x)$. По этим величинам вычисляется количество информации $$I(Y, X)=I(X, Y)=\sum_{x, y}p(x, y)\log_2(p(x, y)/p(x)q(y))$$ и его ср. значение на единицу времени $$R=\lim_{T→∞}\frac{1}{T}I(Y, X),$$где $T$ – длительность передачи сигнала $X$. Верхняя граница $C$ величин $R$, взятая по всем источникам сообщений на входе, называется пропускной способностью К. с. Вычисление пропускной способности, подобно вычислению энтропии, легче в дискретном случае и сложнее в непрерывном, где оно основывается на теории стационарных случайных процессов.
В теории информации устанавливается, что в случае дискретного К. с. без шумов общее определение пропускной способности $C$ равносильно следующему: $$C=\lim_{T→∞}\frac{\log_2N(T)}{T},$$ где $N(T)$ – число допустимых сигналов длительности $T$.
Пример 1. Пусть входной алфавит К. с. без шумов состоит из символов (букв) 0 и 1, передача каждого из которых занимает $\textτ$ секунд. Допустимые сигналы длительностью $T=n\textτ$ представляются последовательностями длины $n$ символов 0 и 1. Их число $N(T)=2^n$. В этом случае $$C=\lim_{T→∞}\frac{\log_2N(T)}{T}=\lim_{n→∞}\frac{n}{n\textτ}=\frac{1}{\textτ}\text{(двоичные ед./с).}$$
Пример 2. Пусть символы 0 и 1 передаются за $\textτ$ и $2\textτ$ с соответственно. Здесь допустимых сигналов длительностью $T=n\textτ$ будет меньше, чем в примере 1. Так, при $n=3$ их будет всего 3 (вместо 8). Можно подсчитать, что $$C=\frac{1}{\textτ}\log_2 \left(\frac{\sqrt{5}+1}{2}\right)\approx\frac{0{,}7}{\textτ}\text{(двоичные ед./с).}$$
При необходимости передачи сообщений по данному К. с. приходится преобразовывать эти сообщения в допустимые сигналы К. с., т. е. производить надлежащее кодирование. После передачи необходимо произвести операцию декодирования, т. е. операцию обратного преобразования сигналов в сообщения. Кодирование целесообразно производить так, чтобы ср. время, затрачиваемое на передачу, было возможно меньше. При одинаковой длительности передачи символов на входе К. с. это означает, что для кодирования сообщений надо выбирать наиболее экономный код с алфавитом, совпадающим со входным алфавитом К. с. При процедуре согласования источника с К. с. возникает специфич. явление задержки (запаздывания), которое может пояснить следующий пример.
Пример 3. Пусть источник сообщений посылает независимо друг от друга через промежутки времени длины $1/v$ (т. е. со скоростью $v$) символы $x$ (буквы сообщения), принимающие значения $x_1, x_2, x_3, x_4$ с вероятностями, равными соответственно 1/2, 1/4, 1/8, 1/8. Пусть К. с. без шумов такой же, как в примере 1, и кодирование осуществляется мгновенно. Полученный сигнал или передаётся по К. с., если последний свободен, или ожидает (помещается в память) до тех пор, пока К. с. не освободится. Если выбран, напр., код $x_1=00, x_2=01, x_3=10, x_4=11$ и $v⩽\textτ/2$ (т. е. $1/v⩾2\textτ$), то за время между появлением двух последоват. значений $x$ кодовое обозначение первого из них успевает передаться и К. с. освобождается. Т. о., здесь между появлением к.-л. буквы сообщения и передачей её кодового обозначения по К. с. проходит промежуток времени $2\textτ$. Если $v>\textτ/2$, то $n$-я буква сообщения появляется в момент $(n-1)/v$ и её кодовое обозначение будет передано по К. с. в момент $2n\textτ$. Промежуток времени между появлением $n$-й буквы сообщения и моментом её получения после декодирования переданного сигнала будет больше, чем $n(2\textτ-1/v)$, эта величина стремится к бесконечности при $n→∞$, т. е. в этом случае передача будет вестись с неограниченным запаздыванием. Поэтому для возможности передачи без неограниченного запаздывания при данном коде необходимо и достаточно выполнение условия $v⩽\textτ/2$. Выбором более удачного кода можно увеличить скорость передачи, сделав её сколь угодно близкой к пропускной способности К. с., но эту последнюю границу невозможно превзойти (сохраняя требование ограниченности запаздывания). Сформулированное утверждение имеет общий характер и называется осн. теоремой о К. с. без шумов.
В отношении примера 3 можно добавить следующее. Для рассматриваемых сообщений, которые появляются с указанными вероятностями, оптимален двоичный код $x_1=0, x_2=10, x_3=110, x_4=111$. Из-за разл. длины кодированных сообщений время запаздывания для $n$-й буквы первоначального сообщения будет случайной величиной. При $v<1/\textτ$ ($1/τ$ – пропускная способность К. с.) и $n→∞$ его ср. значение приближается к некоторому пределу $m(v)$, зависящему от $v$. С приближением $v$ к критич. значению $1/\textτ$ значение $m(v)$ растёт пропорционально $(\textτ–1-v)–1$. Это отражает общее положение: при приближении скорости передачи к максимальной возрастают время запаздывания и необходимый объём памяти кодирующего устройства.
Утверждение осн. теоремы (с заменой безошибочной передачи на почти безошибочную) справедливо и для К. с. с шумами. Этот факт, по существу основной для всей теории передачи информации, называется теоремой Шеннона. Возможность уменьшения вероятности ошибочной передачи через К. с. с шумами достигается применением т. н. помехоустойчивых кодов.
Пример 4. Пусть входной алфавит К. с. состоит из двух символов 0 и 1 и действие шумов сводится к тому, что каждый из этих символов при передаче может с небольшой вероятностью $p$ перейти в другой или с вероятностью $q=1-p$ остаться неискажённым. Применение помехоустойчивого кода сводится, по сути дела, к выбору нового алфавита на входе К. с. Его буквами являются $n$-членные цепочки символов 0 и 1, отличающиеся одна от другой достаточным числом $d$ знаков. Так, при $n=$ 5 и $d=$ 3 новыми буквами могут быть 00000, 01110, 10101, 11011. Поскольку при малых $p$ вероятность более чем одной ошибки на группу из пяти знаков мала, то, даже искажённые, эти буквы почти не перепутываются. Напр., если получен сигнал 10001, то он, скорее всего, возник из 10101. Оказывается, что при надлежащем выборе достаточно больших $n$ и $d$ такой способ значительно эффективнее простого повторения (т. е. использования алфавитов типа 000, 111). Однако возможное на этом пути улучшение качества передачи сопряжено с возрастающей сложностью кодирующих и декодирующих устройств. Напр., если первоначально $p=10^{–2}$ и требуется уменьшить это значение до $p_1=10^{–4}$, то следует выбирать длину $n$ кодовой цепочки не менее 25 (или 380) в зависимости от того, желают ли использовать пропускную способность К. с. на 53% (или на 80%).
В кон. 20 в. в связи с развитием квантовой теории информации и квантовых компьютеров появились и исследуются квантовые каналы связи.