ЭНТРОПИ́Я
-
Рубрика: Математика
-
-
Скопировать библиографическую ссылку:
Книжная версия:
Электронная версия:
ЭНТРОПИ́Я в теории информации, мера неопределённости к.-л. опыта (испытания), который в зависимости от случая может заканчиваться разл. исходами. При этом предполагают, что имеются определённые вероятности появления того или иного исхода. Пусть x1, x2, ..., xn – разл. исходы опыта, p1, p2, ..., pn – соответствующие вероятности pj⩽, \sum_{j=1}^2 p_j=1. Тогда Э. H определяется выражениемH=H(p_1,p_2,...,p_n)=\sum_{j=1}^n p_j\log_2(1/p_j)(считается, что 0\log 0=0).
Свойства Э.: Э. равна нулю в том случае, когда одно число из p_j равно единице, а остальные равны нулю, т. е. когда исход опыта достоверен; Э. достигает макс. значения при данном n, когда все исходы равновероятны; Э. объединения двух независимых опытов равна сумме их Э. Функция H от p_j является единственной, удовлетворяющей этим и ещё нескольким, столь же естественным требованиям. Однако ценность понятия Э. определяется не этим обстоятельством, а тем, что она играет важную роль в информации теории.
Для теории информации особый интерес представляет случай, когда x_j суть сообщения некоторого источника информации, передаваемыми по каналу связи. Сообщения при этом рассматривают как временны́е последовательности элементов (букв), выбираемых с некоторыми вероятностями из какой-то определённой совокупности (алфавита). Выводы теории информации касаются сообщений, являющихся «достаточно длинными» (в принципе неограниченно длинными) последовательностями букв, что соответствует предположению о весьма длительной работе источников сообщений и каналов связи. Поэтому Э. источника на символ (или скорость передачи сообщений, измеряемая в двоичных единицах на символ) определяется некоторым предельным переходом. С этой целью, наряду с сообщениями, представленными в виде неограниченных последовательностей a_1,a_2,...,a_N,... букв некоторого s-буквенного алфавита, рассматривают «урезанные» сообщения длины N, т. е. цепочки a_1,a_2,...,a_N. Выбирая в определении Э. в качестве x_j эти N-членные цепочки и в качестве p_j – соответствующие вероятности, получают некоторую величину H_N. Отношение H_N/N даёт Э. на букву для N-членных цепочек. В теории информации устанавливается, что при очень широком допущении устойчивости вероятностных закономерностей во времени (стационарность источника) величина H_N/N, убывая, стремится к пределу H_∞=\lim_{N→∞}H_N/N, называемому Э. сообщения на символ. Если все символы имеют некоторую длительность и τ – их средняя длительность, то отношение H_∞/τ даёт Э. источника на единицу времени. Эти две величины H_∞ и H_∞/τ являются основными информационными характеристиками источника сообщений. Так, H_∞ позволяет оценить максимально возможную степень «сжатия» сообщения при использовании того же алфавита (см. Избыточность сообщений, Кодирование). Соотношение между скоростью создания сообщений H_∞/τ и ёмкостью к.-л. канала с тем же входным алфавитом, что использован при записи сообщений, определяет возможность «почти безошибочной» передачи этих сообщений по каналу (см. Шеннона теорема).
Э. испытания с бесконечным числом исходов можно попытаться определить с помощью предельного перехода. Но этот путь приводит, как правило, к бесконечному значению Э. Поэтому задаются определённым уровнем точности ε и определяют т. н. ε-энтропию как описываемого с точностью до ε исхода опыта.