Опубликован: 27.05.2013 | Доступ: свободный | Студентов: 1683 / 173 | Длительность: 11:51:00
Специальности: Философ
Лекция 2:

Физика информации

< Лекция 1 || Лекция 2: 123 || Лекция 3 >

Физичность информационного А-поля в микромире Р. Утияма подтверждает следующими аргументами:

  • каждому независимому свойству (параметру) аi элементарных частиц из А-вектора свойств соответствует своя компонента информационного поля – физическое поле Аi, которое несет информацию об этом свойстве и через которое осуществляется взаимодействие между частицами, соответствующее данному свойству;
  • уравнения потенциала компоненты Аi информационного поля и способ связи частицы, обладающей свойством аi , с этой компонентой определяются законом сохранения свойства аi (заряда, массы, импульса и т.п.);
  • передача информации между частицами осуществляется посредством корпускулярных агентов (квантов) с нулевой массой покоя.

Свойства частиц могут быть независимыми (тогда им соответствуют т.н. коммутативные физические компоненты калибровочного поля) и зависимыми. В последнем случае, как утверждает теория калибровочных полей, некоммутативным зависимым компонентам свойственно самопорождать физических "собратьев" – другие компоненты того же калибровочного поля. Иными словами, информационное А-поле способно порождать физические поля в виде своих субкомпонент. Поскольку в общем случае свойства объектов взаимозависимы, эффект самопорождения физических субкомпонент калибровочного поля в дополнение к исходным физическим компонентам важен для понимания субстанциональной природы информационного А-поля. В связи с этим обратим внимание на некоммутативность спина элементарных частиц, что согласно Утияме приводит к самопорождению соответствующего спинового поля при взаимодействии калибровочного поля с частицей.

Согласно Утияме за состоянием элементарных частиц как физических объектов можно следить только с помощью калибровочных полей, соответствующих свойствам частиц. Это является следствием общей теории калибровочных полей, утверждающей, что фундаментальные частицы обмениваются между собой соответствующими силами благодаря калибровочным полям. Шестнадцатикомпонентное калибровочное поле, объединяющее электромагнитное и слабое ядерное взаимодействия, стало первым практическим "объединением" полей в рамках общей теории поля (С. Вайнберг, А. Салам, Ш. Глэшоу; Нобелевская премия 1979 г.). Согласно Утияме сильные (глюонные) внутриядерные взаимодействия осуществляются посредством некоммутативного калибровочного поля. Усилия физиков направлены сейчас на "суперобъединение" четырех известных типов взаимодействий (полей) в рамках единого многокомпонентного калибровочного поля – информационного А-поля, подчиняющегося единому фундаментальному принципу.

В качестве такого единого поля предлагается, например, физический вакуум (Г.И. Шипов. "Теория физического вакуума"), единым фундаментальным принципом которого является EGS-концепция его универсальных поляризационных (фазовых) состояний, проявляющихся на микро- и макроскопическом уровнях: в состоянии зарядовой поляризации физический вакуум проявляется как электромагнитное поле (E), в состоянии спиновой продольной поляризации – как гравитационное поле (G), в состоянии спиновой поперечной поляризации – как спиновое поле (S).

Теория полагает возможными и другие поляризационные состояния физического вакуума, а, следовательно, и другие поля. Но самый трудный вопрос – о физических носителях внутренней информации и волновых потенциалов полей. Утияма полагает, что эти носители имеют общую физическую природу, связанную со свойствами пространства.

Если физический вакуум (или некоторое его состояние) – информационное А-поле, то вектор свойств А, порождающий это поле, может быть отнесен только к одной субстанции – пространству, изотропно и однородно заполненному физическим вакуумом. Значит, информационное А-поле субстанционально редуцируемо (упрощаемо) только к субстанции – пространству и более ни к чему. Следовательно, информационное поле согласно концепции физического вакуума субстанционально предшествует другим полям и субстанциям – корпускулярно-вещественной форме материи (антиматерии), физическим полям, сознанию, но не пространству. В частности, что бы ни понималось под "духом" как метафизической субстанцией, он, "проницая всё и вся" подобно эфиру, в мире физической материи должен иметь не менее вездесущего агента. На эту роль может претендовать только один агент – виртуальное информационное поле, которое, материализуясь во внешней информации, кооперирует физику смысла с метафизикой духа (вопреки научно философскому позитивизму).

В связи с изложенным представление о том, что в неживой природе нет структур, "специализирующихся" на отражательных процессах, подлежит пересмотру. Спин элементарных частиц, корпускулярно-волновые пакеты, физический вакуум, виртуальные частицы, "квантовые точки" как локальные нано- и пикометрические "электронные ловушки" для микрочастиц – по-видимому, далеко не полный перечень таких структур, живо обсуждаемых в физических публикациях2Проблема слишком сложна, чтобы решить ее в рамках классического научного рационализма. Большинство работ по данной проблеме выполняются неклассической наукой. По-видимому, этим объясняется относительно малое число работ экспериментального плана. .

Пример 2. Дихотомический спин элементарных частиц полагается многими физиками физическим полевым переносчиком и хранителем двоичной информации, откуда следует рефлексивная гипотеза об онтологическом генезисе двоичного кода. Электронно-позитронный волновой пакет ("фитон") как элементарная квантово-полевая структура физического вакуума (с взаимно скомпенсированными спинами входящих в него частиц) полагается многими физиками как возможный виртуальный переносчик и хранитель информации в информационном поле, возбуждаемом при любой спиновой поляризации подобных пакетов. Квантовые точки – атомарные системы размером 10-9 м и менее – позволяют уже в обозримом будущем конструировать компьютерные логические элементы с использованием спина электрона, а также безэнергетического информационного процесса "квантовой телепортации".

Часть указанных в примере 2 структур и феноменов не наблюдаема, однако при определенных условиях содержащаяся в них информация проявляется в полях и сигналах, доступных нашим ощущениям и сознанию непосредственно или опосредованно через приборы3Ранней весной трава тоже не наблюдаема, якобы "виртуальна", но до тех пор, пока ее ростки не появятся из почвы. . Так, ненаблюдаемая структура физического вакуума является средой наблюдаемого волнового распределения полевых потенциалов. Ненаблюдаемая информация, хранимая в недрах бессознательного (архетипы и др.) неведомыми (пока!) каналами связи передается в сознание (а из сознания в действие). Когерентные (синфазные) волны света несут ненаблюдаемую информацию, проявляющуюся в форме голограмм. Из когерентных спектральных составляющих радиосигналов можно извлечь информацию, "потерянную" в шумах. Если отрицать ненаблюдаемую внутреннюю информацию в косной природе, то логично отрицать ее существование и в геологических образованиях, хранящих наблюдаемые следы прошедших эпох, в палеонтологических и археологических находках, наконец, в книгах и на компьютерных дисках, хотя и созданных человеком, но все же "неживых". Если человечество за относительно короткий период своего существования сумело создать "неживую память", то можно ли безоговорочно утверждать, что прародительница природа за гораздо более длительный период своего развития не могла создать более емкую память для хранения своей внутренней информации?! Таким образом, физика вплотную подошла к представлению о ненаблюдаемой трансцендентальности как объективной реальности, к признанию этой трансцендентальности научной областью исследования. Здесь материализм встречается с идеализмом, не конфронтируя с ним по принципу "кто не с нами, тот против нас", а сотрудничая по принципу кота Леопольда: "Ребята, давайте жить дружно!". Полагаем, что такое сотрудничество удовлетворяет плюралистическим вызовам времени, чуждым черно-белого восприятия мира.

При всей дискуссионности обсуждаемых физических моделей философия по своему статусу не должна элиминировать (исключать) их из своей "базы проблем". Требуется непредвзятый методологически выверенный философский анализ. В частности, философ, "паря над схваткой", должен, как нам представляется, обращать пристальное внимание на два фактора: 1) степень изоморфности (сходства) выходных параметров моделей и соответствующих выводов; 2) степень независимости моделей по аппарату исследования, терминологии, первоисточникам, опытным данным.

Именно изоморфность и независимость (в указанном смысле) нескольких математических моделей развития и последствий глобальной ядерной войны дали одно из веских оснований ООН принять в свое время ряд известных судьбоносных ограничений на ядерные испытания и ядерные вооружения. Изоморфность и независимость многих исторически параллельных научных открытий и технических изобретений (исчисление бесконечно малых, законы сохранения материи и энергии, радио, самолет, электронный компьютер и др.) всегда давали немедленный толчок их развитию и практическому внедрению, в то время как уникальные достижения воспринимались с "восхищенным недоверием" и требовали неоднократного подтверждения (например, частная и общая теории относительности, рентгеновские лучи и др.).

Один из важных изоморфизмов трех независимых постнеклассических физических моделей вакуума и информационного поля (Вейник А.И., Шипов Г.И., Taylor R.), выявленный автором, состоит в их волновой ориентации. Согласимся, что корпускула ассоциируется, скорее, с физической материей как вещественным субстратом, а волна – с полем как более тонкой, почти виртуальной формой существования физической материи. Не сговариваясь, авторы всех трех моделей приходят к общим фундаментальным выводам:

  1. волны поля несут информацию об источнике поля и препятствиях его распространению;
  2. степень когерентности (синфазности) разных волн одного и того же поля существенно влияет на его информативность;
  3. виртуальная информация, содержащаяся в волне некоторого поля, при определенных условиях может стать явной информацией в материально-энергетической форме сигнала.

Экспериментальные подтверждения: голография Д. Габора (скрытая информация, присутствующая в когерентных волнах поля, проявляется в голограмме!); оптимальные фильтры и "компрессоры сигнала" в технике связи и локации (скрытые в шумах сигналы, о которых наблюдатель даже не подозревает, становятся наблюдаемыми!).

Пример 3. В радиотехнике оптимальная фильтрация сигнала часто производится путем синфазирования частотных составляющих сигнала, что вызывает так называемое "сжатие" сигнала и появление сжатого сигнального "пика" в определенный момент времени t0 над порогом обнаружения (рис.2.1.а: порог обнаружения "Порог"; частотные составляющие u1,u2,u3; сигнал u1+u2+u3). При малейшем сдвиге фаз относительно t0 пик сигнала рассыпается и может скрыться под порогом обнаружения (рис.2.1.б).

Техническая реализация оптимальных фильтров достаточно разнообразна. Для нас важно их общее свойство – подобие (т.е. совпадение с точностью до постоянных коэффициентов) информационных характеристик передаваемого сигнала и приемника этого сигнала. Такой приемник и есть оптимальный фильтр. Очевидно, что оптимальная фильтрация возможна при условии априорного знания приемником информационных характеристик ожидаемого сигнала (как минимум, его частотного спектра). Оптимальная фильтрация, доведенная до схемотехнических решений, материализует философскую суть эффективного познания объекта: субъект должен уподобиться объекту, чтобы эффективно познать последний.


Рис. 2.1.

Сосредоточение мысли субъекта на объекте познания, по нашему мнению, есть процесс именно такого уподобления, самонастройки интеллектуального приемника субъекта на режим оптимальной фильтрации сигналов познания, передаваемых объектом. Важно, что для адекватного уподобления объекту познания субъект должен априори, если не знать, то, по крайней мере, представлять латентные познаваемые свойства объекта. Следовательно, для эффективного познания субъект априори должен иметь теорию объекта, чтобы настроить свои средства познания (чувства, приборы, мозг) на режим оптимальной фильтрации сигналов, несущих внешнюю информацию об объекте: "решая задачу, знай ответ" (математика), "нужная информация – тому, кто ее ожидает" (ученые, экстрасенсы), "каждый видит (слышит) то, что хочет видеть (слышать)" (мистические практики познания: йога, буддизм, дзэн, исихазм и др.).

Если техника, созданная человеком, демонстрирует такие возможности, может быть, и сам человек способен извлекать латентную информацию за счет самонастройки мозга и всего тела (мыслит весь организм!) на прием волн информационного поля. Так, голографический способ записи и воспроизведения изображений полагается многими биологами и физиологами основой объемности механизма зрения. Не объясняет ли понятие информационного поля природу априорного знания ( "Знание как высшая форма информации" ), кантовского "чистого разума"?

И тем не менее указанные модели мы относим к девиантной науке, ибо в рамках господствующей физической парадигмы мироздания им пока не находится места.

Измерение информации

Если информация – физическая сущность, она должна согласно рациональной научно-философской доктрине поддаваться измерению. Первые методы измерения информации были предложены в начале ХХ в. (Р.А. Фишер, Р. Хартли). Продолжая начатое, Н. Винер в "Кибернетике" (1948 г.) оперировал математическими понятиями "количество информации" и "энтропия", которые в том же 1948 г. независимо от Винера использовал и К.Э. Шеннон, конституировавший теорию информации как математическую теорию связи. Заметим, что энтропия Винера – Шеннона – это информационная энтропия, в отличие от термодинамической энтропии Больцмана – Максвелла – Клаузиуса. Последняя исторически предшествовала понятию информационной энтропии. Лингвистическое совпадение этих понятий не случайно – за ним стоят важные содержательное и математическое совпадения, ибо в обоих случаях энтропия характеризует степень разнообразия состояний системы (источника информации, физической или иной системы).

Для теории информации важно сопоставить математические понятия информационной энтропии (далее просто энтропии) и количества информации. В рамках вероятностного (содержательного) подхода энтропию принято считать мерой неопределенности случайного выбора источником того или иного своего состояния. Любой подобный выбор, приводящий к ограничению разнообразия и неопределенности состояний источника информации, уменьшает его энтропию, увеличивая при этом количество информации как меру определенности выбора. Выбор, хоть и делается источником, принуждается (навязывается) потребителем информации, управляется этим потребителем, познающим источник.

Пример 4. Факт получения информации субъектом об объекте есть выбор, приводящий к ограничению разнообразия и неопределенности состояний объекта, но только в гносеологическом смысле. Мы вправе полагать, что не только субъект, но и объект в информационном процессе познания осуществляет свой выбор в форме одного из возможных объектных состояний как информационно эквивалентную реакцию на выбор субъекта. Отличие объектного информационного выбора от субъектного усматривается нами в том, что первый не приводит к уменьшению разнообразия и неопределенности последующих объектных выборов, т.к. каждый из них – всего лишь ситуативная фиксация очередного выбранного состояния. Если представить состояния объекта как шары в урне, то опосредованный (виртуальный) выбор шаров эффективно познающим субъектом производится без возврата в урну, в то время как объект выбирает (предъявляет) их с возвратом. И это понятно – объект один, а субъектов, пытающихся его познать, много; если "шары" не возвращать в урну, на всех не хватит. Такой выбор есть не что иное, как генерирование копии "шара", т.е. копии состояния объекта.

Энтропия вычисляется через число возможных состояний источника и вероятности его перехода в эти состояния. Соответственно, количество информации, полученной от источника в результате опыта (акта познания), считается мерой неопределенности, снятой опытом – количество информации есть мера определенности опыта. Именно в таком смысле понимал энтропию и количество информации К.Э. Шеннон. Поскольку опыт уменьшает доопытную неопределенность, Шеннон предложил под количеством информации, полученным в опыте, понимать разность между априорным и апостериорным значениями энтропии4Апостериорная энтропия здесь – мера неопределенности, оставшейся после опыта (информационный дефицит) из-за неполноты познания источника (объекта). . Отсюда следует, что энтропия и количество информации должны вычисляться в одних и тех же единицах для любого источника вне зависимости от содержания его состояний 5На практике так и делается (биты, байты и др.). Мера информационного разнообразия (мощность множества состояний, размеры файлов) измеряется в тех же единицах..

Определить для любого источника его состояния и их вероятности, по-видимому, можно лишь с известной степенью приближения и субъективизма6Здесь принципиален вопрос, о каких состояниях источника идет речь – функциональных, структурных, кинематических и т.п. . Особенно трудно определить возможные состояния мыслящих источников информации, у которых эти состояния неподконтрольны. Для таких источников измерять информацию в понятиях энтропии и количества информации следует с осторожностью. Однако для нас главное – понять, что возможные состояния источника априорны, ибо не зависят от опыта, в то время как наблюдаемые в опыте состояния (события) апостериорны. Следовательно, об энтропии источника можно судить a priori и a posteriori, а о количестве информации – только a posteriori. Априорность энтропии и апостериорность количества информации позволяют сделать следующий вывод: априорная энтропия источника (если она поддается измерению) полностью, а апостериорная частично характеризуют количественно его внутреннюю информацию, апостериорное количество информации – внешнюю информацию источника.

Пример 5. Если полагать, что число состояний Универсума стремится к потенциальной бесконечности, то потенциальная энтропия Универсума как источника информации количественно тоже стремится к бесконечности. На фоне научно-философской полемики о пространственно-временной бесконечности или конечности Вселенной приведенное суждение позволяет утверждать, что если Вселенная и бесконечна, то прежде всего в информационном смысле. Трудность нашего положения обусловлена отсутствием экспериментальных или имитационно-вычислительных методов проверки информативности Вселенной как наиболее доказательных в рациональной науке. Попытка же абсолютного, полного познания источника с бесконечным числом состояний приводит к порочному кругу, внутри которого мы вынуждены вращаться бесконечно долго, задавая бесконечное число вопросов и получая на них столько же ответов, которые для своего хранения потребуют бесконечной памяти. Отсюда количество информации, получаемой в любом опыте, всегда конечно и не превышает энтропии источника – Универсума или любой входящей в него системы. Данные рассуждения имеют и строгую математическую основу (закон конечной информации).

Измерение информации традиционно связывается с кибернетическими системами (биологическими и искусственными). Однако нельзя отрицать, что кибернетические системы являются одновременно и физическими системами, раз они подчиняются общим физическим законам (в том числе, второму началу термодинамики) и состоят из тех же химических элементов (и отчасти веществ), что и неживая природа. Отсюда следует, что в кибернетической системе должна постоянно происходить борьба между порядком (управляемостью, несвободой, знанием, жизнью с ее неравновесностью) и хаосом (неуправляемостью, свободой, незнанием, смертью с ее равновесием). В этом плане необходимо более внимательно отнестись к взаимодействию эволюционного механизма со вторым началом термодинамики и взаимосвязи термодинамической и информационной энтропийных составляющих в рамках общей энтропии системы.

Пример 6. Неумолимая смерть биологических систем воочию свидетельствует о подобных связях и энтропийном дуализме природы каждой системы, общая энтропия которой содержит две составляющих – термодинамическую и информационную как операнды некоего уравнения, пока неизвестного математической физике. Относительно информационной энтропии теория информации утверждает, что в закрытой (замкнутой) системе, изолированной от окружающей среды, энтропия может изменяться в пределах от нуля (одно из состояний достоверно, остальные невозможны) до максимума, зависящего от числа состояний, когда их вероятности одинаковы. В той же системе термодинамическая энтропия никогда не уменьшается. В крайнем случае, она может оставаться постоянной и, соответственно, общая энтропия системы может возрастать, уменьшаться и оставаться постоянной, никогда не достигая нуля.

Приведенный пример – идеализация. Реальная биологическая система (как и любая система небиологического происхождения) проявляет себя в разное время и в разной степени как открытая и закрытая системы одновременно, ибо среда всегда в той или иной мере вносит возмущения в системы, невзирая на их классификацию, придуманную людьми. Закрытые системы независимы друг от друга. Но эта независимость, скорей всего, метафизична. Физична только зависимость систем, совместно обитающих в Универсуме, как зависимы все люди, обитающие на Земле. Информационная энтропия открытого зависимого источника (системы) условна в том смысле, что она определяется при условии известных состояний остальных влияющих источников (систем), входящих в среду обитания зависимого источника. В данном контексте условна и апостериорная энтропия как вычитаемый операнд выражения для количества информации, ибо наблюдатель (субъект, потребитель информации) и наблюдаемый объект (источник информации) в любом опыте взаимозависимы. Полная информационная независимость от среды (как вырожденный случай, когда энтропия становится безусловной) возможна при потере системой адаптации к среде, при подавляющих помехах в каналах связи и управления. Даже если такой вырожденный случай возможен, теплообмен между средой и системой (термодинамику) как одну из примитивнейших форм движения материи исключить невозможно, разве только при абсолютном нуле температур, который недостижим (согласно третьему началу термодинамики). В общем, в философии информации для термодинамики и теории информации открыто общее поле интересов.

Мы рассмотрели вероятностный подход к измерению информации. В современной информатике прикладное значение имеет измерение информации, циркулирующей в каналах связи и управления и хранимой на носителях информации. Для этого чаще используется комбинаторный (алфавитный) подход А.Н. Колмогорова, представляющий информацию в виде последовательности знаков и ориентированный на определение длины данной последовательности. Комбинаторная мера количественно ограничивает информационное разнообразие "сверху" числом возможных комбинаций. Там, где есть ограничение сверху, должны быть и механизмы ограничения снизу. Их несколько. Онтологически наиболее значимым является ограничение разнообразия снизу неделимостью информационного кванта, соответствующего двум состояниям (информативность – 1 бит). Меньше (одно состояние) – однообразие с нулевой информативностью. Можно возразить, что рассуждения о минимальной информативности кванта в один бит и неинформативности однообразия суть абстрактные суждения, исходящие из свойств логарифмической функции от аргумента – разнообразия по двоичному основанию логарифма 1 bit = log22. На самом деле логарифмическая мера информации вполне физична.

Пример 7. Психофизический закон Вебера – Фехнера постулирует интенсивность ощущения как величину, пропорциональную логарифму интенсивности физического раздражения. Время реакции на раздражения при числе раздражителей k пропорционально логарифму k. Что есть передача раздражения, как не информационный процесс? Что есть интенсивность ощущения, как не количество информации, полученное в этом процессе? Из теории поиска известно, что число шагов наиболее эффективного по быстродействию двоичного поиска в системе с равновероятными состояниями равно логарифму числа состояний (размера поискового пространства). Наконец, утверждение о нулевой информативности системы с одним известным состоянием (log 1 = 0) не противоречит интуиции здравого смысла, что также немаловажно.

И вероятностный, и комбинаторный подходы к измерению информации имеют отношение только к привычной внешней информации. Что касается количественных мер для измерения внутренней информации, то, по нашему мнению, они нецелесообразны (по крайней мере, в современной науке). Ведь внутренняя информация объекта как его семантическое образное содержание (смысл, концепт, самоотображение) – не число, не материя и не энергия. Рациональная установка физика Галилея (Галилео Галилей был одновременно и выдающимся философом (см. его "Диалог о двух главнейших системах мира – Птолемеевой и Коперниковой", "Беседы и математические доказательства, касающиеся двух новых отраслей науки"). ) сделать всё неизмеряемое измеряемым представляется неприменимой для скрытых (объективных) смыслов, для субъективного понятия новизны информации и субъективных привносимых смыслов. Внешнюю (материально-энергетическую плюс идеальную) и внутреннюю (идеальную) формы информации "аршином общим не измерить": "идеальная информация не содержит в себе ничего, поддающегося измерению, следовательно, доступная измерению информация не может быть идеальной" (Н. Винер "Я – математик"). Используемая в современной теории информации мера – информационная энтропия источника информации – в большинстве случаев не более чем формальная дань галилеевской парадигме измеримости, математическая условность в интересах рациональных доказательств теории информации, и не более того. Поэтому информационная энтропия – всего лишь условная мера внутренней информации, не имеющая статуса истинной "меры".

Что касается информационного поля как возможного носителя внутренней информации, то измерять хранимую в нем информацию, как мы измеряем файлы, хранимые на материальных носителях, пока представляется столь же гипотетическим, сколь и существование самого информационного поля.

< Лекция 1 || Лекция 2: 123 || Лекция 3 >
Андрей Ларионов
Андрей Ларионов

Успешно окончил один из курсов и заказал сертификат, который должен прийти по почте. Как скоро сертиикат высыается своему обладателю?

Владислав Нагорный
Владислав Нагорный

Подскажите, пожалуйста, планируете ли вы возобновление программ высшего образования? Если да, есть ли какие-то примерные сроки?

Спасибо!