Za darmo

Информационная феноменология жизни. Часть I: Внутриклеточные информационные отношения

Tekst
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

Информация

Прежде чем начать обсуждение вопросов информационной феноменологии жизни, напомним некоторые представления непосредственно об информации. Мы не будем давать какое-либо из принятых определений понятия «информация», потому что, на наш взгляд, информация – это свойство природы, которое настолько обще и фундаментально, что выделяет его как самостоятельную философскую категорию представления отношений в природе. Встанем на позицию российского биофизика В. И. Корогодина из Объединенного института ядерных исследований, считающего, что «определение информации через описание форм её проявления и её свойств представляется вполне правомочным».

Рассмотрим некоторые из основных свойств, присущих информации. Одними из основополагающих, на наш взгляд, являются следующие три свойства: свойство системности, свойство возможности передачи информации и свойство тиражируемости информации. Специфические особенности этих свойств информации являются предметом исследований самостоятельных прикладных научных направлений, в рамках которых выработаны подходы к формированию и оценке конкретных различных количественных и качественных показателей информации. Попробуем проинтерпретировать их в структуре этих свойств.

Системность

Информации принципиально присущи системные свойства, связанные с обязательным наличием наряду с информацией, как самостоятельным объектом, таких связанных с ней объектов как источники информации и потребители (приёмники) информации. Образно говоря, информация выполняет некоторую «услугу» между «источником» и «потребителем». Только их обоюдное наличие порождает информационные отношения. В противном случае – при их обоюдном отсутствии, информация абсолютно теряет смысл, т.е. перестает существовать как содержательный объект. Отсутствие источника и потребителя информации создает ситуацию ее полного отсутствия. Таким образом, информация как категория представления формы и развития природы достаточно адекватно совпадает с феноменологической моделью системы.

Системные свойства информации проявляются не только в структуризации объектов: источник(информация(потребитель, но и в их жесткой системной связности в информационном смысле. Действительно, информация приобретает смысл только в том случае, когда процедуры формирования информации источником позволяют воспринимать ее потребителю. Это достигается при наличии у источника и потребителя внутренних согласованных механизмов организации процедур формирования и восприятия информации. Согласованность действия таких механизмов обеспечивается на основе выполнения некоторых соглашений, которые в совокупности с алгоритмами реализации этих соглашений составляют самостоятельный системный объект – программное[16] обеспечение функционирования источника и приемника информации. Оно является таким же обязательным атрибутом любой информационной системы, как источник и потребитель.

Вместе с тем программное обеспечение само по себе является информационным объектом, в результате чего может возникнуть впечатление некоторого парадокса: «информация создает информацию». Но такие свойства различных объектов достаточно традиционны. Например, в математической теории множеств достаточно естественно представление, что подмножество некоторого исходного множества может включать в себя исходное множество. Однако для феноменологии информационных систем это обстоятельство весьма существенно. Именно на основе его можно предположить возможность формирования системных эволюционных процессов за счет лишь имманентных факторов, без необходимости наличия каких-либо внешних (трансцендентных) целей.

Принципиальным феноменологическим свойством программного обеспечения и, по сути дела, каждой программы является обязательное сопоставление им императива[17] внутренней цели: «исполнение программы». Таким образом, организация процессов на основе программного управления становится вполне детерминированной, по крайней мере, в отношении указанной цели. Это выводит системы, имеющие имманентное программное обеспечение и действующие на его основе, в отдельный специфический класс (категорию), для которого внешнему наблюдателю представляется их поведение как целенаправленное. Именно трансцендентная интерпретация целенаправленности систем, функционирующих на основе программ, порождает, на наш взгляд, порой не совсем адекватное представление об их генезисе[18]. Напомним, что императив цели: «реализация (исполнение) программы», – это атрибут программы и совсем не обязательно именно он является первоисточником (либо причиной) появления программы. Так, например, сложившиеся концепции и реальные версии системного программного обеспечения компьютеров третьего и четвертого поколений и персональных компьютеров в значительной степени определили цели их функционального назначения.

Передача информации

В обобщенном виде «услуга», осуществляемая информацией, сводится к передаче информации от источника к потребителю. Это является принципиальным свойством информации, без реализации которого разговор об информации теряет смысл. Напомним, что передача информации может осуществляться как в пространстве, так и во времени. В реальных условиях эти процессы обычно в той или иной степени совмещаются и имеют много общего по форме представления информации, но каждый из них порождает свою специфическую атрибутику для реализации возможностей передачи информации. Передача в пространстве связана с динамическими объектами, такими как сигнал, а передача во времени со статическими объектами – память.

Исследования способов передачи информации в пространстве (по каналам связи) явились основой становления классической теории информации, в рамках которой выявлены и сформулированы основные свойства формы представления и передачи информации. Основополагающим фактором классической теории информации является, пожалуй, парадигма воздействия окружающей среды на информационную систему при передаче информации, в частности, передача информации по каналам связи при наличии помех (шумов – термин, доставшийся в наследство от исследования каналов передачи звуковой информации). Фундаментальными положениями теории информации являются введенные в ней понятия количества и скорости передачи информации при выбранном способе ее дискретного представления. Показано, что дискретное представление информации никоим образом не сужает общего понятия «информация». Это обосновано теоремой академика Российской академии наук В. А.Котельникова, сформулированной им в 1933г. в работе «О пропускной способности "эфира" и проволоки», утверждающей, что любые реальные непрерывные процессы могут быть представлены некоторой дискретной последовательностью без потери информации.

В математике достаточно давно разработаны различные приемы представления разных форм отношений в других формах, более удобных для применения в конкретных ситуациях. Одним из распространенных способов такого представления является разложение в ряд – феноменологически, по сути, переход от континуальной формы к дискретной форме интерпретации отношений. Одной из задач при проведении такой аппроксимации является оценка точности аппроксимации. В. А.Котельниковым доказана теорема (теорема Котельникова). Если непрерывный сигнал x(t) имеет спектр, ограниченный частотой Fmax, то он может быть восстановлен по его дискретным отсчетам, взятым с частотой fd= 2 Fmax..

С онтологической точки зрения мы имеем дело с принципиально своеобразным классом объектов. Дискретное представление информации обладает уникальной особенностью – возможность создания копий, абсолютно идентичных с точки зрения их смыслового содержания. Это принципиально не достижимо при аналоговом представлении, т.к. любое воспроизведение аналоговых сигналов доступно лишь с некоторой точностью, зависящей от свойств материальных объектов, участвующих в информационном процессе.

Интересна в этом смысле категориальная модель семантики информации, разработанная отечественным ученым В. Г.Толстовым. Концептуально-методологические основы теории представления этой модели декларируют квантовый (дискретный) характер содержательного смысла (семантики) информации, а не только ее возможностей дискретного представления с целью передачи и тиражирования.

Достигнутые к настоящему времени фундаментальные положения теории определили универсальную форму представления информации в виде кодов[19], что обеспечивает связь информационных процессов с реальными материальными физическими процессами обработки, передачи и хранения информации.

 

Алфавит

Кодирование – дискретное представление информации, основано на использовании некоторого алфавита, с помощью которого по определенным правилам создаются кодовые комбинации, своим многообразием обеспечивающие уникальное представление той или иной информации. Каждый алфавит являет собой некоторое конечное множество элементов, которые соответствуют событиям представления информации для ее передачи в том или ином виде (в пространстве, или во времени). Для конкретной информационной системы знаки (буквы) алфавита – элементы множества, обычно соответствуют событиям представления некоторого кванта (минимальной порции) информации.

Содержательный смысл этих квантов не является предметом рассмотрения процедур кодирования. Содержательная интерпретация знаков алфавита и их последовательности является имманентным атрибутом конкретной информационной системы. Вопросами этого направления занимается наука семиотика[20], которая охватывает комплекс научных теорий, изучающих различные свойства знаковых систем (естественный и разговорный языки, языки программирования, математическую, физическую, химическую и другие научные символики, и т.п.). Можно считать, что фиксация алфавита является как бы начальным феноменологическим уровнем представления информации. В настоящее время для современных технических систем, связанных с обработкой и передачей цифровой информации, обычно применяется двоичный (бинарный) алфавит (А ={0,1}), на основе которого реализуются различные методы и системы двоичного кодирования. Выбор двоичного алфавита связан с относительной простотой электронных элементов для выполнения операций на множестве состояний 0 и 1. Реализация таких операций может быть осуществлена на однопороговых переключательных схемах, находящихся в состояниях типа: «включено»/«выключено». Создание электронных элементов, которые имеют более двух устойчивых состояний, пока что не нашло «дешевого» технического решения.

Самым распространенным алфавитом на Земном шаре является алфавит генетического кода. В 1953г. Ф.Крик и Дж.Уотсон предложили модель пространственной структуры ДНК, т.н. «двойную спираль», что позволило объяснить, каким образом генетическая информация записана в молекулах ДНК, и высказать гипотезу о механизмах ее самовоспроизведения – репликации. За это открытие авторам в 1962г. была присуждена Нобелевская премия. Во всей живой природе на Земле на уровне клеточного строения генетическая информация передается четырехзначным кодом, образуемым сахаро-фосфатной цепью молекул ДНК (дезоксирибонуклеиновая кислота) и РНК (рибонуклеиновая кислота) четырьмя видами нуклеотидов: А – аденин, Г – гуанин, Т – тимин (для ДНК) или У – уридин (для РНК), Ц – цитозин. При этом каждая клетка является достаточно автономной информационной системой, обладающей своего рода постоянным запоминающим устройством, организованным молекулами ДНК (своего рода «дискетами»), хранящими генетический код – программу развития живого организма. Поражает количество создаваемых природой копий программного обеспечения, поддерживающего процесс жизни живых организмов. У человека насчитывается порядка 1015 соматических клеток, в каждой из которых имеется полная копия программного обеспечения развития всего человеческого организма. Количество «дискет» в одном человеческом организме в миллион раз превосходит численность населения на Земном шаре. Такие масштабы, по-видимому, подчеркивают потенциальные возможности информационных систем, как по масштабам, так и по их значимости в жизни живой природы.

Многообразие форм письменности и представления информации в различных системах иллюстрируют тезис о некотором надсистемном акте выбора алфавита для конкретной информационной системы. Под надсистемностью подразумевается отсутствие определяющей зависимости мощности и структуры алфавита от вида информации в конкретной информационной системе.

Кодирование

Концепция дискретного представления информации на основе знаков некоторого конечного алфавита, как отображение событий, соответствующих определенным квантам (минимальным порциям) информации, подводит к возможности выработки меры оценки количества информации. Существуют формальные приемы отображения знаков одного алфавита с помощью знаков другого. Это обусловлено тем, что алфавиты могут быть представлены в виде конечных счетных множеств, элементы которых можно занумеровать числами натурального ряда. На основании этого взаимное отображение алфавитов достигается на основе теоретико-множественных процедур с элементами алфавитных множеств и их подмножествами. Именно числ овая форма представления информации нашла глубокое применение в вычисл ительной технике, само название которой подчеркивает эту форму представления информации. Нам рассказывали, что до наступления эры компьютеризации классные китайские телеграфистки «на ходу» переводили иероглифы в цифровой код, лишь изредка сверяясь с таблицами перевода.

Необходимо отметить, что взаимоотображение алфавитов на основе формальных теоретико-множественных процедур не учитывает содержательной (семантической) значимости (если она имеется) алфавитных знаков. Но вместе с тем, формализация на основе теоретико-множественного представления информации позволяет выработать единый подход к оценке количества информации при знаковой форме отображения событий, соответствующих определенным квантам (минимальным порциям) информации.

В основе всей теории информации лежит открытие, сделанное Р.Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. Подход Р.Хартли базируется на фундаментальных теоретико-множественных, по существу комбинаторных, основаниях, а также некоторых интуитивно очевидных предположениях. Если считать, что существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.

Если множество элементов, из которых осуществляется выбор, состоит из одного единственного элемента, то его выбор предопределен, т.е. никакой неопределенности выбора нет. Это означает нулевое количество информации. Если множество состоит из двух элементов, то неопределенность выбора существует, и ее значение минимально. В этом случае минимально и количество информации, после того как совершен выбор одного из элементов. Это количество информации принято за единицу измерения и называется бит[21]. Чем больше элементов содержит множество, тем больше неопределенность выбора, т.е. тем больше заключено в нем информации. На основании этого Р.Хартли предложена мера оценки количества информации (H), получаемой при реализации (выборе) одного из N состояний: H=log2N. Эта мера является адекватной в предположении, что равновероятен выбор любого элемента из множества состояний.

В середине ХХ столетия К.Шеннон дал более широкую интерпретацию количественной оценки информации в сравнении с тезисами Р.Хартли. Подход К.Шеннона основывается на теоретико-вероятностном подходе. Это связано с тем, что исторически теория информации К.Шеннона выросла из потребностей теории связи, имеющей дело со статистическими характеристиками передаваемых сообщений по каналам связи. К.Шеннон обобщает представление Р.Хартли, учитывая, что различные события в общем случае не равновероятны.

В литературе часто утверждается, о неправомерности применения формулы К.Шеннона для оценки количества семантической информации. Отечественный ученый В. Г.Толстов в своих работах показал, что количество информации, определяемое по формуле К.Шеннона, является интегральной оценкой объема кванта полной и точной информации, описывающей сообщение x на уровне его представления категориальной моделью Mx. По мнению В. Г.Толстова предлагаемый в его теории квантовой информатики подход к оценке объемов информации позволяет утверждать о возможности использования формулы К.Шеннона для оценки количества семантической информации и при этом достаточно точно установить границы ее применимости и для этого случая. Такая декларация имеет существенное феноменологическое значение с точки зрения преодоления часто обсуждаемых противоречий в количественной оценке ситуационного (событийно-вероятностного) и семантического представления информации.

Чрезвычайно важным и принципиальным является то обстоятельство, что для построения меры Р.Хартли используется лишь понятие многообразия, которое накладывает на элементы исходного множества лишь одно условие (ограничение): должна существовать возможность отличать эти элементы один от другого. В теории К.Шеннона существенным образом используется статистика и очевидно, что мера К.Шеннона асимптотически переходит в меру Р.Хартли при условии, что вероятности всех событий (состояний) равны.

Приведенные меры оценки количества информации не несут в себе представления и способов идентификации идеоморфности[22]знаковой формы отображения событий, соответствующих определенным квантам (минимальным порциям) информации. С этой точки зрения суть процедур кодирования заключается в группировании алфавитных знаков в кодовое слово так, чтобы эти слова соответствовали идиоморфизмам данной системы. При передаче по телеграфу, например, идиоморфизмами являются буквы, цифры, знаки препинания и знак пробела, а в естественных языках идеоморфизмами являются понятия, обозначаемые словами. Это качественное преобразование можно выделить в самостоятельный феноменологический уровень представления информации.

Формализация этого явления при передаче, хранении и обработке информации обычно связывается с операцией отождествления символов или групп символов одного кода с символами или группами символов другого кода. Если задано множество элементов сообщений (идиоморфизмов) B= {bi}, где i =1,…,N (N – мощность множества B), и присутствует некоторый алфавит A с символами akA, где k =1,…,m и m – размерность алфавита, то К – множество конечных последовательностей символов ak, называемых словами в данном алфавите А, называется кодом К, если множество К поставлено во взаимно однозначное соответствие с множеством В. Слова, входящие в множество К, называются кодовыми словами (кодовыми комбинациями), а число символов в кодовых словах называется длинной кодовых слов; m – размерность алфавита А, называется основанием кода К.

По форме, кодирование – это структуризация последовательности алфавитных знаков с целью передачи информации в пространстве или во времени или для ее преобразования. Наряду с алфавитом процедуры кодирования и соответствующие им при приеме (чтении) информации процедуры декодирования должны учитывать направленность кода. Очевидно, что в самом коде сведения о его направленности отсутствуют, и необходимы дополнительные системные механизмы (соглашения), обеспечивающие восприятие направленности кода.

 

В технических системах направленность кода регламентируются некоторыми стандартами и рекомендациями, например, государственных и международных организаций. На их основе обеспечивается возможность согласованного функционирования всей инфраструктуры связи Земного шара. Академик Латвийской академии наук Э. А.Якубайтис, описывая, например, протоколы вычислительных сетей, подчеркивает: «Передача физических блоков информации осуществляется так, что биты принимаются в конце физического соединения в том же порядке, в каком они были переданы в начале соединения».

В компьютерах размер ячейки основной памяти обычно принимается равным 8 двоичным разрядам – байту. Для хранения больших чисел используются 2, 4 или 8 байтов, размещаемых в ячейках с последовательными адресами. В этом случае за адрес числа часто принимается адрес его младшего байта. Такой прием называют адресацией по младшему байту (little endian addressing). Он характерен, например, для микропроцессоров фирмы Intel, США, а также был характерен для ЭВМ фирмы DEC (Digital Equipment Corporation), США. Возможен и противоположный подход – по меньшему из адресов располагается старший байт. Этот способ известен как адресация по старшему байту (big endian addressing), характерный, например, для микропроцессоров фирмы Motorola и универсальных ЭВМ фирмы IBM. В большинстве компьютеров предусмотрены специальные инструкции для перехода от одного способа к другому.

В биологических системах последовательность считывания генетической информации регулируется механизмом хиральности.[23]Английский физик лорд Кельвин (W.Thomson), определивший понятие «хиральность» писал в 1893 г.: «Я называю геометрическую фигуру хиральной, если ее отражение в зеркале не совпадает с нею при наложении (подобно рукам человека)». Молекула называется хиральной, если ее пространственная конфигурация не инвариантна относительно зеркального отражения. Подавляющее большинство биоорганических соединений живой природы – хиральны. В частности: аминокислоты, сахара и нуклеотиды, участвующие в жизненных процессах живых организмов. Хиральная молекула имеет две зеркально антиподные пространственные конфигурации – левый (L) и правый (D) энантиомеры. Процесс считывания информации, как он сегодня представляется биологам, чрезвычайно усложнился бы, если блоки, из которых построены считываемые и считывающие молекулы на основе нуклеиновых кислот и белков, были представлены рацемическими (хирально неупорядоченными) смесями своих мономеров.

Направленность кода также как и алфавит не определяются непосредственно типом, содержанием или какими-либо другими показателями информации. Их выбор определяется системными (или надсистемными) соглашениями и/или традициями, обычно обусловленными возможностями материальной (hardware) реализации необходимых способов обработки и передачи информации.

Эффективность кодирования существенным образом зависит от того, какое количество уникальных представлений возможно при фиксированных значениях мощности алфавита и длине кода. Естественно, что увеличение количества кодируемых комбинаций в заданных условиях повышает эффективность процедуры кодирования. Максимальное значение эффективности кодирования может быть достигнуто, когда обеспечивается различие любых комбинаций размещения символов алфавита с повторениями. Это эквивалентно позиционным системам счисления. Однако в реальных условиях достижение такого многообразия значений обычно не происходит. Это объясняется тем, что при передаче информации возможны искажения. Определить наличие ошибки в переданном коде можно только за счет его избыточности. Существуют различные способы избыточного кодирования, которые позволяют в ряде случаев не только идентифицировать наличие ошибки при передаче, но и исправить некоторые из них. Такие коды называются корректирующими.

Феноменологически, в отличие от знаков алфавита и принятого для них направления кодирования, сам процесс кодирования значительно глубже связан уже с содержательной стороной информации (например, мощность множества отображаемых идиоморфизмов). Вместе с тем процессы кодирования более глубоко охватывают и подходы к материальной реализации информационных систем, учитывая возможные воздействия различных факторов, приводящих к искажению информации.

16От греческого πρόγράμμα – распоряжение,объявление, наказ, от πρό – впереди γράμμα – запись, линия.
17От латинского imperativus – повелительный, настоятельное требование
18От греческого γένεσις – происхождение, возникновение; процесс образования и становления развивающегося явления
19От французского code – система условных обозначений и названий, применяемых для передачи, обработки и хранения различной информации, от латинского codex – книга,
20От греческого σημείον – знак, примета, признак
21От английского binary digit – двоичная цифра, то есть два возможных значения. Обозначение ввел К.Шеннон.
22От греческого ίδέα – идея, первообраз, понятие, представлениеи μορφή – форма, образ.
23От греческого χειρ – рука.