Иллюзия пользователя. Урезание сознания в размерах - Норретрандерс Тор (книги бесплатно без регистрации полные .txt) 📗
Термодинамика имеет дело с макросостояниями, которые интересуют людей: тепло. Теория информации имеет дело с макросостояниями, которые интересуют телефонные компании: символы.
Но в определении информации, данном Шенноном, есть кое-что странное. Оно устраняет саму идею значения и ограничивается только тем значением, которое могло бы присутствовать — но вовсе не обязательно присутствует. Если сравнить это с нашим повседневным пониманием информации, то данное определение может показаться очень скудным. С другой стороны, оно невероятно точное, и мы могли бы простить ему за эту точность определенное упущение.
Тем не менее термин «информация» не всегда может быть особо точным. Это в огромной степени субъективная концепция: речь идет о том, насколько неожиданным для нас может оказаться сообщение. Она говорит нам о том, что буква «А» содержит в себе определенную информационную ценность, так как мы знаем: вместо нее могла дойти любая другая из 25 букв алфавита — но не дошла: дошла буква «А».
Но что, если бы нам было неизвестно, что мы имеем дело с буквой из 26-буквенного алфавита? Сколько информации содержала бы «А» в этом случае? Определение информации Шеннона ничего нам об этом не говорит.
Информация имеет определение только тогда, когда мы определили, кто говорит, с кем говорит и в каком контексте. Мы не можем дать определение информации Шеннона, пока не будем знать, какие допущения по обоюдному согласию принимают передатчик и приемник. Таким образом Шеннон предпринимает странный маневр: сначала он выбрасывает любые разговоры о значениях — а затем дает определение информации как зависящей от столь фундаментальных связей, что мы о них даже не говорим.
Если мы не будем знать, сколько микросостояний соответствует каждому макросостоянию, мы вообще не можем вести речи об информации. Только когда мы определяем макро- и микросостояния, мы можем знать количество информации. Точно так же, как и в случае энтропии.
Информация очень тесно связана с энтропией: энтропия данного макросостояния измеряется количеством соответствующих ему микросостояний. Чем их больше, тем выше энтропия. Информация — это нечто, чем мы обладаем, когда знаем, какие микросостояния задействованы.
Буква в тексте имеет энтропию, которая определяется тем фактом, что на ее месте мог быть один из 26 символов. Информация — это знание о том, каким именно символом она является. Информационная ценность знания о том, какое микросостояние задействовано, зависит от того, сколько вообще микросостояний может быть задействовано. У символа есть определенная энтропия, и знание о его реальном микросостоянии — какая буква? — таит в себе определенное количество информации, которое соответствует энтропии данного символа.
Таким образом, мы не можем определить энтропию или информацию, если нам не известен контекст.
Отсюда происходит множество непониманий, в первую очередь потому, что «информация» — это нагруженное значением слово со знаком плюс, выражение, которое мы спонтанно ассоциируем с чем-то «хорошим». В течение десятков лет информация ассоциировалась с порядком — а энтропия с беспорядком.
Эта идея ведет свое происхождение от математика Норберта Винера, основателя кибернетики — теории контрольных систем. В своей книге «Кибернетика» 1948 года он говорит, что информационная теория пришла к нему примерно в то же время, как и к Шеннону (который опубликовал ее в 1948 году). Несколькими строчками далее Винер провозглашает, что «точно так же, как количество информации, в системе есть мера ее степени организованности, так что энтропия системы — это мера ее дезорганизации».
Эта точка зрения находится весьма далеко от точки зрения Шеннона. Если же говорить точнее, то идея Винера является противоположностью тому, что утверждал Шеннон. Но она получила большое влияние особенно в свете изучения демона Максвелла. Леон Бриллоун с энтузиазмом развивал идею Винера, обобщив ее в концепции негэнтропии — «без-беспорядка», то есть порядка.
Звучит интригующе — но это не может быть верным. И в действительности чтобы эта идея стала верной, Бриллоуну пришлось изменить знак концепции информации Шеннона. Из этого изменения выросли десятки лет непонимания. Информация Шеннона — это энтропия: количество выборов, количество микросостояний, неопределенность. Бриллоун же просто поменял символ: информация — это порядок, то есть негативная энтропия.
Восприятие информации как порядка лежит ближе к нашему повседневному пониманию «информации», нежели понятие Шеннона. Так что понятие негэнтропии Бриллоуна и Винера оказалось соблазнительным. Проблема просто заключается в том, что нельзя просто играть с символами в уравнении, иначе можно полностью лишить его смысла.
Датский физик Педер Воэтманн Кристиансен говорит об этом так: «Люди думают, что им удастся постичь сущность смысла, поменяв знак бессмыслицы». Винер и Бриллоун оказались слишком нетерпеливыми.
Энтропия — это мера количества информации, знание которой нас не интересует. Информация — это то, что можно в изобилии найти в состоянии, в котором энтропия высока. Но это не значит, что мы обладаем этой информацией — это означает только, что она там есть и что мы могли бы ее получить, если бы она была нам нужна.
Информация — это то, что можно обнаружить в беспорядке. В беспорядке больше информации, нежели в порядке. Чем больше беспорядок, тем больше информации. Чем больше микросостояний, тем больше информации. Чем больше микросостояний воплощены в макросостоянии, тем больше информации мы отбрасываем, когда сосредотачиваемся на макросостоянии. Макросостояние «тепло» соответствует невообразимо огромному числу микросостояний, о которых мы не знаем, если просто обращаем внимание на температуру.
Беспорядок сложно описать. Особенно в деталях.
Покойный американский физик Ричард Файнман выразил это так: «Мы измеряем беспорядок тем количеством способов, которым может быть изменено внутреннее содержание таким образом, чтобы извне все выглядело по-прежнему».
Энтропия — это мера количества информации, которую мы не принимаем во внимание, когда рассматриваем систему снаружи: движение газа как температура, серия букв как набор символов. Если мы внутри системы, мы можем получить эту информацию, если она будет нам нужна. Если мы снаружи системы, мы «отсеиваем» ее — или вообще никогда не обладаем ею.
Информация — это выражение разницы между нахождением внутри и снаружи: температура/молекулы, количество букв/сообщение. Информация и энтропия сообщают нам нечто о разнице между описанием или контролем системы снаружи и изнутри.
Если мы посмотрим на газ снаружи, со своего уровня описания, где нас больше всего интересует тепло, мы можем суммировать все в сжатом общем описании: макросостояние тепла измеряется в виде температуры. Если же мы посмотрим на газ с «его собственного» уровня описания, где все состоит из молекул в движении, нам придется перечислить огромное количество бит, которые описывают огромное количество простых состояний: микросостояния молекулярного движения, которые измеряются как скорости.
Если мы будем рассматривать газ снаружи, мы сможем выделить определенное количество энергии тепла постольку, поскольку мы соблюдаем второй закон термодинамики, который описывает газы извне. Если мы взглянем на него изнутри, мы можем получить намного больше энергии из молекулярного движения газа — но это если нам удастся избавиться от всей той информации, которую мы уже получили.
Пока мы находимся снаружи, мы можем быть полностью индифферентны к той информации, которая имеется внутри газа. Но в это время мы обязаны соблюдать второй закон термодинамики и называем эту информацию «энтропия».
Если мы хотим получить доступ к энергии хаотического теплового движения, мы должны признать все микросостояния молекулярного движения, которые до этих пор мы игнорировали, просто заявляя, что тепло подразумевает определенный уровень энтропии. Мы должны получить информацию обо всех и каждых из этих микросостояний.