Mybrary.info
mybrary.info » Книги » Справочная литература » Энциклопедии » Большая Советская Энциклопедия (ИН) - Большая Советская Энциклопедия "БСЭ" (список книг .txt) 📗

Большая Советская Энциклопедия (ИН) - Большая Советская Энциклопедия "БСЭ" (список книг .txt) 📗

Тут можно читать бесплатно Большая Советская Энциклопедия (ИН) - Большая Советская Энциклопедия "БСЭ" (список книг .txt) 📗. Жанр: Энциклопедии. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте mybrary.info (MYBRARY) или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Перейти на страницу:

  В задачах математической статистики также пользуются понятием И. (сравни примеры 3 и 3а). Однако как по своему формальному определению, так и по своему назначению оно отличается от вышеприведённого (из теории И.). Статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием некоторых сводных характеристик. Иногда при такой замене происходит потеря И., но при некоторых условиях сводные характеристики содержат всю И., содержащуюся в полных данных (разъяснение смысла этого высказывания даётся в конце примера 6). Понятие И. в статистике было введено английским статистиком Р. Фишером в 1921.

  Пример 6. Пусть X1 , X2 , ..., Xn , — результаты n независимых наблюдений некоторой величины, распределённые по нормальному закону с плотностью вероятности

Большая Советская Энциклопедия (ИН) - i-images-166436321.png

где параметры a и s2 (среднее и дисперсия) неизвестны и должны быть оценены по результатам наблюдений. Достаточными статистиками (т. е. функциями от результатов наблюдении, содержащими всю И. о неизвестных параметрах) в этом примере являются среднее арифметическое

Большая Советская Энциклопедия (ИН) - i-images-147100693.png

и так называемая эмпирическая дисперсия

Большая Советская Энциклопедия (ИН) - i-images-125378595.png

Если параметр s2 известен, то достаточной статистикой будет только X (сравни пример 3 а выше).

  Смысл выражения «вся И.» может быть пояснён следующим образом. Пусть имеется какая-либо функция неизвестных параметров j = j (a , s2 ) и пусть

j* = j*(X1 , X2 , ..., Xn )

— какая-либо её оценка, лишённая систематической ошибки. Пусть качество оценки (её точность) измеряется (как это обычно делается в задачах математической статистики) дисперсией разности j* — j. Тогда существует другая оценка j**, зависящая не от отдельных величин Xi , а только от сводных характеристик X и s2 , не худшая (в смысле упомянутого критерия), чем j*. Р. Фишером была предложена также мера (среднего) количества И. относительно неизвестного параметра, содержащейся в одном наблюдении. Смысл этого понятия раскрывается в теории статистических оценок.

  Лит.: Крамер Г., Математические методы статистики, пер. с англ., М., 1948; Ван-дер-Варден Б. Л., Математическая статистика, пер. с нем., М., 1960; Кульбак С., Теория информации и статистика, пер. с англ., М., 1967.

  Ю. В. Прохоров.

Информация (изложение)

Информа'ция (от лат. informatio — разъяснение, изложение), первоначально — сведения, передаваемые одними людьми другим людям устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т. д.), а также сам процесс передачи или получения этих сведений. И. всегда играла в жизни человечества очень важную роль. Однако в середины 20 в. в результате социального прогресса и бурного развития науки и техники роль И. неизмеримо возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной И., получившее название «информационного взрыва». В связи с этим возникла потребность в научном подходе к И., выявлении её наиболее характерных свойств, что привело к двум принципиальным изменениям в трактовке понятия И. Во-первых, оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу И. (см. Генетическая информация , Кибернетика биологическая ). Во-вторых, была предложена количественная мера И. (работы К. Шеннона , А. Н. Колмогорова и др.), что привело к созданию информации теории .

  Более общий, чем прежде, подход к понятию И., а также появление точной количественной меры И. пробудили огромный интерес к изучению И. С начала 1950-х гг. предпринимаются попытки использовать понятие И. (не имеющее пока единого определения) для объяснения и описания самых разнообразных явлений и процессов.

  Исследование проблем, связанных с научным понятием И., идёт в трёх основных направлениях. Первое из них состоит в разработке математического аппарата, отражающего основные свойства И. (см. Информация в кибернетике).

  Второе направление заключается в теоретической разработке различных аспектов И. на базе уже имеющихся математических средств, в исследовании различных свойств И. Например, уже с момента создания теории И. возникла сложная проблема измерения ценности, полезности И. с точки зрения её использования. В большинстве работ по теории И. это свойство не учитывается. Однако важность его несомненна. В количественной теории, выдвинутой в 1960 А. А. Харкевичем , ценность И. определяется как приращение вероятности достижения данной цели в результате использования данной И. Близкие по смыслу работы связаны с попытками дать строгое математическое определение количества семантической (т. е. смысловой) И. (Р. Карнап и др.).

  Третье направление связано с использованием информационных методов в лингвистике, биологии, психологии, социологии, педагогике и др. В лингвистике, например, проводилось измерение информативной ёмкости языков. После статистической обработки большого числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов одного и того же текста на разные языки и многочисленных экспериментов по угадыванию букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией тексты могли бы укоротиться в 4—5 раз. Так был с этой точки зрения установлен факт избыточности естественных языков и довольно точно измерена её величина, находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные методы помогли лучше понять механизм действия основного закона психофизики — закона Вебера — Фехнера, который утверждает, что ощущение пропорционально логарифму возбуждения. Именно такая зависимость должна иметь место в случае, если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают свойствами, присущими идеализированному каналу связи, фигурирующему в теории И. Значительную роль информационный подход сыграл в генетике и молекулярной биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков И. Ведутся также исследования по применению информационных методов в искусствоведении.

  Такое разнообразное использование понятия И. побудило некоторых учёных придать ему общенаучное значение. Основоположниками такого общего подхода к понятию И. были английский нейрофизиолог У. Р. Эшби и французский физик Л. Бриллюэн . Они исследовали вопросы общности понятия энтропии в теории И. и термодинамике, трактуя И. как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения второго начала термодинамики , рассматривая передачу И. некоторой системе как усовершенствование этой системы, ведущее к уменьшению её энтропии. В некоторых философских работах был выдвинут тезис о том, что И. является одним из основных универсальных свойств материи. Положительная сторона этого подхода состоит в том, что он связывает понятие И. с понятием отражения. См. также ст. Информатика , Информация общественно-политическая, Массовая коммуникация .

  Лит.: Эшби У. Р., Введение в кибернетику, пер. с англ., М., 1959; Харкевич А. А., О ценности информации, в сборнике: Проблемы кибернетики, в. 4, М., 1960; Шеннон К. Э., Работы по теории информации и кибернетике, пер. с англ., М., 1963; Колмогоров А. Н., Три подхода к определению понятия «количество информации», «Проблемы передачи информации», 1965, т. 1, в. 1; Бриллюэн Л., Научная неопределённость и информация, пер. с англ., М., 1966; Урсул А. Д., Информация, М., 1971.

Перейти на страницу:

Большая Советская Энциклопедия "БСЭ" читать все книги автора по порядку

Большая Советская Энциклопедия "БСЭ" - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mybrary.info.


Большая Советская Энциклопедия (ИН) отзывы

Отзывы читателей о книге Большая Советская Энциклопедия (ИН), автор: Большая Советская Энциклопедия "БСЭ". Читайте комментарии и мнения людей о произведении.


Уважаемые читатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор mybrary.info.


Прокомментировать
Подтвердите что вы не робот:*