Что такое информация?
«Все недовольны тем, что информационная наука не хочет потрудиться над определением информации... На самом же деле ни одна современная наука нс имеет определения своих основных феноменов. В биологических науках нет определения жизни, в медицинских - здоровья, в физике - энергии, в электротехнике - электричества, в ньютоновских законах - взаимодействия. Это просто основные явления, и эта их первичность служит им определением.» (Т. Сарацевич).
Каждая общезначимая наука, имеющая предметом своего интереса некоторую выраженную область изучения, имеет право на существование, если может образовывать свои прикладные варианты. Более того, только практически полезное существование прикладных наук подтверждает целесообразность их фундаментальных прародителей. В литературе часто утверждается, что такого рода понимание фундаментальности в равной степени относится не только к математике и физике, но и к наукам об информации.
Классическая количественная теория информации К. Шеннона состоит из двух частей: теории преобразования сообщений и сигналов, основную долю в которой составляют вопросы кодирования и декодирования, и собственно теории передачи сообщений и сигналов без шумов и с шумами в канале связи. Ес основным утверждением, влияющим на понимание смысла термина «информация», является утверждение, что носителем сообщения или информации является сигнал. Этой информации придаются количественная и качественная меры. Сохраняются «сигнальные» предпосылки - характеристики сигнала, на котором отражается сообщение, и есть предмет изучения информации. В этом случае получается, что собственно информацию определять нс надо никак. Информация - «универсальное свойство» всего существующего в материальном мире, представимое через сигнал.
После этого можно утверждать, что, в зависимости от конкретного вида сигналов и их сочетаний, количество информации в них может быть больше или меньше. Так, если в урне обнаружено два шара, из которых один белый, а второй черный, то оба вместе они несут в себе разнообразие - информацию в один бит. Совокупность двух шаров одного цвета предлагается считать нс содержащей информации. Основоположником концепции разнообразия является английский нейрофизиолог У. Р. Э ш б и . По его утверждению «информация не может передаваться в большем количестве, чем позволяет количество разнообразия» [18]. В 1929 г. американский ученый Р. Хартли предложил в качестве меры количества информации принять логарифм числа возможных последовательностей символов. Такое представление информации хорошо согласуется с требованием аддитивности и отражает экспоненциальный характер зависимости количества возможных кодовых комбинаций от количества символов в исходном алфавите.
Таким образом, классическая количественная теория информации не ставит задачу раскрытия качественной стороны информации.
Возможно, что под информацией все-таки надо понимать что-то другое, что-то, дающее более определенные ее характеристики, вообще не воспринимать ее как свойство или как «информационный сигнал»? Может, следует ограничить ее количественное понимание «количественной теорией»?
Поэтому важным этапом развития теории информации считается попытка ряда ученых обратиться к «человеческому аспекту» информационного процесса, к его разъяснительному смыслу, к понятию «информатизации». В конечном итоге в настоящее время в литературных источниках обычно указываются три общепринятые направления развития исследований, связанных со «свойственно-количественным» подходом к понятию информации:
- • математический (количественный): разработка математического аппарата, отражающего основные свойства информации или исследования в области сигнального понимания информации в полном соответствии с областью, приписываемой теории информации;
- • понятийный (количественно-качественный): исследование основных свойств информации - измерение ее ценности, полезности и т.п. или исследования в области понимания информации на уровне создания разнообразных подходов к ее количественно-качественному измерению;
- • информатизационный: использование информационных методов в других науках (социологии, лингвистике, биологии и др.) либо рассмотрение информации в ее разъяснительном смысле, определенном как процесс информирования, или «информатизации», происходящий стихийно либо осуществляемый с какой-либо осознанной целью.
Общим во всех перечисленных направлениях является все то же отсутствие необходимости определения понятия информация, да и что такое «информационный метод» с его «человеческим аспектом» - гоже никто не определяет.
Все перечисленные выше подходы «оставляют все как есть», продолжая путь количественной информации и кибернетики, бывшей, по утверждению академика В. Глушкова, «информационным углом зрения» (без определения понятия информации). Поэтому рассмотрим новые варианты понимания информации.
В самом простом случае в разговоре об информации традиционно предлагается ситуация, когда некоторое состояние материи, обязательно воспринимаемое какими-либо человеческими чувствами или физическими приборами как сигнал, через носитель передается в воспринимающую систему. Для корректности восприятия можно сравнивать такого рода информационный сигнал (внешнее информационное сообщение) нс только с его возможной копией в приемнике, но и с тем, что имеет получатель в виде опыта своего существования (накоплений в базе) и знания особенностей конкретного источника сообщения. При этом фактически то, что в обыденной жизни называется контекстом восприятия сообщения в приемнике, предлагается алгоритмически учитывать как дополнительное внутреннее информационное сообщение, контактирующее с внешним сигналом при его обработке для выяснения «информационной ценности» последнего или определения полученного «количества информации».
Существует основное отличие всех сообщений человека от сигналов датчиков: они могут быть сделаны только после выработки в «контекстно зависимой, не алгоритмической машине», каковой является мозг, множества вариантов интерпретации входного сообщения и выбора наиболее приемлемого из них. Только после этого на основе проведенного выбора формируется собственно сообщение, причем не важно, какую внешнюю форму в конечном счете оно обретет: контекстно независимую (программную) или контекстно зависимую.
Внутренняя проблема обязательной контекстной привязки сообщения, обязательность использования контекстно зависимого языка характерна для сложных объектов живого мира, является их неотъемлемой сущностной характеристикой в такой степени, что с потерей контекстно-зависимого мышления и общения личность распадается, исключается из класса особей своего вида.