БЭС:
Большой
Советский
Энциклопедический
Словарь

Термины:

ДРЕНАЖНЫЕ ТРУБЫ, часть конструкции горизонтального дренажа.
ЕДИНАЯ ДЕМОКРАТИЧЕСКАЯ ЛЕВАЯ ПАРТИЯ (Eniaia Demokratike Aristera, ЭДА).
ЖЕЛЕЗО САМОРОДНОЕ, по условиям нахождения различаются теллурическое.
ЖУРНАЛИСТСКОЕ ОБРАЗОВАНИЕ, система подготовки лит. сотрудников.
КАССОВЫЙ ПЛАН Госбанка СССР.
КЛИСТРОН [от греч. klyzo - ударять, окатывать (волной) и (элек)трон].
АЙСАН, озеро в межгорной котловине среди отрогов.
ЗАЩИТА ОРГАНИЗМА ОТ ИЗЛУЧЕНИЙ ионизирующих.
ЗЕРКАЛЬНО-ЛИНЗОВЫЙ ТЕЛЕСКОП, катадиоптрический телескоп.
ЗУБР (Bison bonasus), европейский дикий лесной бык.


Фирмы: адреса, телефоны и уставные фонды - справочник предприятий оао в экономике.

Большая Советская Энциклопедия - энциклопедический словарь:А-Б В-Г Д-Ж З-К К-Л М-Н О-П Р-С Т-Х Ц-Я

139861221536085229101ние пропорционально логарифму возбуждения. Именно такая зависимость должна иметь место в случае, если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают свойствами, присущими идеализированному каналу связи, фигурирующему в теории И. Значит, роль информационный подход сыграл в генетике и молекулярной биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков И. Ведутся также исследования по применению информационных методов в искусствоведении.

Такое разнообразное использование понятия И. побудило нек-рых учёных придать ему общенаучное значение. Основоположниками такого общего подхода к понятию И. были англ, нейрофизиолог У. Р. Эшби и франц. физик Л. Брил-люэн. Они исследовали вопросы общности понятия энтропии в теории И. и термодинамике, трактуя И. как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения второго начала термодинамики, рассматривая передачу И. нек-рой системе как усовершенствование этой системы, ведущее к уменьшению её энтропии. В нек-рых филос. работах был выдвинут тезис о том, что И. является одним из основных универсальных свойств материи. Положительная сторона этого подхода состоит в том, что он связывает понятие И. с понятием отражения. См. также ст. Информатика, Информация общественно-политическая, Массовая коммуникация.

Лит.: Эшби У. Р., Введение в кибернетику, пер. с англ., М., 1959; Xаркевич А. А., О ценности информации, в сб.: Проблемы кибернетики, в. 4, М., 1960; Шеннон К. Э., Работы по теории информации и кибернетике, пер. с англ., М., 1963; Колмогоров А. Н., Три подхода к определению понятия "количество информации", "Проблемы передачи информации", 1965, т. 1, в. 1; Бриллюэн Л^ Научная неопределённость и информация, пер. с англ., М., 1966; Урсул А. Д., Информация, М., 1971. В. Н. Тростников.

ИНФОРМАЦИЯ общественно-политическая, совокупность сообщений об актуальных новостях внутренней и международной жизни, распространяемых средствами массовой коммуникации и ориентирующих аудиторию в фактах, явлениях, процессах политич., экономич., научной, культурной и пр. жизни общества. В социалистич. обществе к И. предъявляются требованияправдивости и точности изложения правильно отобранных и сгруппированных типических фактов, объективного анализа и комментирования событий и процессов социальной жизни на основе марксистско-ленинской методологии в соответствии с принципом партийности. Коммунистическая партия придаёт важное значение проблеме информированности масс трудящихся с целью их сознательного и активного участия в общественной жизни, а также поступлению фактической и оценочной И. от самих трудящихся о положении дел во всех сферах нар. х-ва и культуры, о мнениях по различным обществ, вопросам; эта "обратная" И. используется для принятия решений на различных уровнях социального управления.

Бурж. пропаганда, стремясь ориентировать массы в своих целях, широко использует методы дезинформации, необъективно излагая факты и сущность событий, замалчивая важные сведения, делая упор на сенсационные сообщения о малозначимых событиях.

В журналистике главными формами оперативной передачи И. являются информационные жанры публицистики - хроника, заметки, репортажи, отчёты, интервью, обзоры.

Лит.: Бровиков В. И., Попович И. В., Современные проблемы политической информации и агитации, М., 1969.

ИНФОРМАЦИЯ (от лат. informatio - разъяснение, изложение), первоначально - сведения, передаваемые одними людьми другим людям устным, письменным или к.-л. другим способом (напр., с помощью условных сигналов, с использованием технич. средств и т. д.), а также сам процесс передачи или получения этих сведений. И. всегда играла в жизни человечества очень важную роль. Однако в сер. 20 в. в результате социального прогресса и бурного развития науки и техники роль И. неизмеримо возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной И., получившее название "информационного взрыва". В связи с этим возникла потребность в научном подходе к И., выявлении её наиболее характерных свойств, что привело к двум принципиальным изменениям в трактовке понятия И. Во-первых, оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растит, мире. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу И. (см. Генетическая информация, Кибернетика биологическая). Во-вторых, была предложена количеств, мера И. (работы К. Шеннона, A. H. Колмогорова и др.), что привело к созданию информации теории.

Более общий, чем прежде, подход к понятию И., а также появление точной количеств, меры И. пробудили огромный интерес к изучению И. С нач. 1950-х гг. предпринимаются попытки использовать понятие И. (не имеющее пока единого определения) для объяснения и описания самых разнообразных явлений и процессов.

Исследование проблем, связанных с научным понятием И., идёт в трёх осн. направлениях. Первое из них состоит в разработке матем. аппарата, отражающего осн. свойства И. (см. Информация в кибернетике).

Второе направление заключается в тео-ретич. разработке различных аспектов И. на базе уже имеющихся матем. средств, в исследовании различных свойств И. Напр., уже с момента создания теории И. возникла сложная проблема измерения ценности, полезности И. с точки зрения её использования. В большинстве работ по теории И. это свойство не учитывается. Однако важность его несомненна. В количеств, теории, выдвинутой в 1960 А. А. Харке-вичем, ценность И. определяется как приращение вероятности достижения данной цели в результате использования данной И. Близкие по смыслу работы связаны с попытками дать строгое математич. определение количества се-мантич. (т. е. смысловой) И. (P. Карнап и др.).

Третье направление связано с использованием информационных методов в лингвистике, биологии, психологии, социологии, педагогике и др. В лингвистике, напр., проводилось измерение информативной ёмкости языков. После ста-тистич. обработки большого числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов одного и того же текста на разные языки и многочисл. экспериментов по угадыванию букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией тексты могли бы укоротиться в 4-5 раз. Так был с этой точки зрения установлен факт избыточности естеств. языков и довольно точно измерена её величина, находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные методы помогли лучше попять механизм действия осн. закона психофизики - закона Be-бера - Фехнера, к-рый утверждает, что ощущение пропорционально логарифму возбуждения. Именно такая зависимость должна иметь место в случае, если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают свойствами, присущими идеализированному каналу связи, фигурирующему в теории И. Значит, роль информационный подход сыграл в генетике и молекулярной биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков И. Ведутся также исследования по применению информационных методов в искусствоведении.

Такое разнообразное использование понятия И. побудило нек-рых учёных придать ему общенаучное значение. Основоположниками такого общего подхода к понятию И. были англ, нейрофизиолог У. P. Эшби и франц. физик Л, Брил-люэн. Они исследовали вопросы общности понятия энтропии в теории И. и термодинамике, трактуя И. как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения второго начала термодинамики, рассматривая передачу И. нек-рой системе как усовершенствование этой системы, ведущее к уменьшению её энтропии. В нек-рых филос. работах был выдвинут тезис о том, что И. является одним из основных универсальных свойств материи. Положительная сторона этого подхода состоит в том, что он связывает понятие И. с понятием отражения. См. также ст. Информатика, Информация общественно-политическая, Массовая коммуникация.

Лит.: Эшби У. P., Введение в кибернетику, пер. с англ., JM., 1959; Xаркевич А. А., О ценности информации, в сб.: Проблемы кибернетики, в. 4, M., 1960; Шеннон К. Э., Работы по теории информации и кибернетике, пер. с англ., M., 1963; Колмогоров A. H., Три подхода к определению понятия "количество информации", "Проблемы передачи информации", 1965, т. 1, в. 1; Бриллюэн JI- Научная неопределённость и информащгя, пер. с англ., M., 1966; Урсул А. Д., Информация, M., 1971. В. H. Тростников.

ИНФОРМАЦИЯ общественно-политическая, совокупность сообщений об актуальных новостях внутренней и международной жизни, распространяемых средствами массовой коммуникации и ориентирующих аудиторию в фактах, явлениях, процессах политич., экономич., научной, культурной и пр. жизни общества. В социалистич. обществе к И. предъявляются требования правдивости и точности изложения правильно отобранных и сгруппированных типических фактов, объективного анализа и хомментирования событий и процессов социальной жизни на основе марксистско-ленинской методологии в соответствии с принципом партийности. Коммунистическая партия придаёт важное значение проблеме информированности масс трудящихся с целью их сознательного и ах-тивного участия в общественной жизни, а также поступлению фактической и оценочной И. от самих трудящихся о положении дел во всех сферах нар. х-ва и культуры, о мнениях по различным обществ, вопросам; эта "обратная" И. используется для принятия решений на различных уровнях социального управления.

Бурж. пропаганда, стремясь ориентировать массы в своих целях, широко использует методы дезинформации, необъективно излагая факты и сущность событий, замалчивая важные сведения, делая упор на сенсационные сообщения о малозначимых событиях.

В журналистике главными формами оперативной передачи И. являются информационные жанры публицистики - хроника, заметки, репортажи, отчёты, интервью, обзоры.

Лит.: Брови ков В. И., Попович И. В., Современные проблемы политической информации и агитации, M., 1969.

ИНФОРМАЦИЯ в кибернетике. Естественнонаучное понимание И. основано на двух определениях этого понятия, предназначенных для различных целей (для информации теории, иначе называемой статистич. теорией связи, и теории статистических оценок). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.

Центральное положение понятия И. в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в "памяти", передавать по "каналам связи"- и перерабатывать её в "сигналы", направляющие их деятельность в соответствующую сторону.

В нек-рых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их "площади": независимо от способа измерения площадей можно сказать, что фигура А имеет не большую площадь, чем В, если А может быть целиком помещена в В (ср. примеры 1-3 ниже). Более глубокий факт - возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы - является результатом развитой математич. теории. Подобно этому, фундаментальным результатом теории И. является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями И. и выразить её количество числом. Только этим числом определяются возможности передачи И. по каналам связи и её хранения в запоминающих устройствах.

Пример 1. В классической механике знание положения и скорости частицы, движущейся в силовом поле, в данный момент времени даёт И. о её положении в любой будущий момент времени, притом полную в том смысле, что это положение может быть предсказано точно. Знание энергии частицы даёт И., но, очевидно, неполную.

Пример 2. Равенство

[1025-1-1.jpg]

даёт И. относительно вещественных переменных a и b. Равенство [1025-1-2.jpg]

даёт меньшую И. [т. к. из (1) следует (2), ио эти равенства не равносильны]. Наконец, равенство [1025-1-3.jpg]

равносильное (1), даёт ту же И., то есть (1) и (3) - это различные формы задания одной и той же И.

Пример 3. Результаты произведённых с ошибками независимых измерений к.-л. физич. величины дают И. о её точном значения. Увеличение числа наблюдений увеличивает эту И.

Пример З а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.

Пример 4. Пусть результатом нек-рого измерения является случайная величина X. При передаче по нек-рому каналу связи X искажается, в результате чего на приёмном конце получают величину [1025-1-4.jpg] , где [1025-1-5.jpg] не зависит от X (в смысле теории вероятностей). "Выход" Y даёт И. о "входе" X; причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки[1025-1-6.jpg]

В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1-3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности нек-рых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математич. статистикой и теорией И. (для к-рых эти примеры являются типичными).

В основе теории информации лежит предложенный в 1948 амер. учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно др. случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассмаг-риваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X - случайная величина, принимающая значения [1025-1-7.jpg] с вероятностями [1025-1-8.jpg] , a Y - случайная величина, принимающая значения[1025-1-9.jpg] с вероятностями [1025-1-10.jpg]. Тогда И.I(X,Y) относительно У, содержащаяся в X,[1025-1-11.jpg] определяется формулой

где Ptj - вероятность совмещения событий [1025-1-12.jpg] и логарифмы берутся по основанию 2. И. I(X, Y) обладает рядом свойств, к-рые естественно требовать от меры количества И. Так, всегда [1025-1-13.jpg]и равенство[1025-1-14.jpg] возможно тогда и только тогда, когда [1025-1-15.jpg] при всех [1025-1-16.jpg], т. е. когда случайные величины X и Y независимы. Далее, всегда[1025-1-17.jpg] и равенство возможно только в случае, когда Y есть функция от X (напр., [1025-1-18.jpg] и т. д.). Кроме того, имеет место равенство[1025-1-19.jpg] Величина

носит[1025-1-20.jpg] название энтропии случайной величины X. Понятие энтропии относится к числу основных понятий теории И. Количество И. и энтропия связаны соотношением

[1025-1-21.jpg]

где H (X, У) -