КулЛиб - Классная библиотека! Скачать книги бесплатно 

Одна формула и весь мир [Евгений Александрович Седов] (fb2) читать постранично, страница - 70


 [Настройки текста]  [Cбросить фильтры]

Методологические аспекты М , Наука 1971.

Шамбадаль П. Развитие и приложения понятия энтропии. М., Наука, 1967.

Яглом А. М., Яглом И М. Вероятность и информация. М.Наука, 1973.


ПРОБЛЕМА ЭНТРОПИИ В СОВРЕМЕННОЙ НАУКЕ (ПОСЛЕСЛОВИЕ)


Проблема энтропии — пожалуй, одна из самых «горячих» точек современной науки. Гносеологический интерес к ней стимулируется нарастающим давлением практики, новыми научными и техническими достижениями. Немалое значение имеют возобновившиеся дискуссии относительно возможности понижения энтропии вследствие самоорганизации и предполагаемых ограничений в действии второго начала термодинамики. В последнее время эти дискуссии приобретают порой драматический характер, хотя ведутся не столько на страницах научных изданий, сколько в популярных журналах и брошюрах, нередко на безответственном уровне и в запальчивой форме.

Поэтому объективное, научное и вместе с тем доступное широкому кругу читателей изложение современного состояния проблемы заслуживает безусловного одобрения.

Понятие энтропии введено в науку Клаузиусом в 1865 году как логическое развитие термодинамики Карно, сформулированной еще до открытия закона сохранения энергии и основанной на теплородной гипотезе. Энтропия характеризовала свойства макроскопической системы в условиях покоя или равновесия применительно к обратимым (идеальным) процессам.

Распространение концепции Клаузиуса на необратимые процессы привело к заключению, что в необратимых взаимодействиях (свойственных макросистемам) энтропия возрастает.

Дальнейшее развитие физики обусловило появление статистической термодинамики, в основу которой легла формула Больцмана, связывающая энтропию с логарифмом вероятности состояний системы (энтропия Планка). Здесь проявляется на макроуровне необратимость времени: со временем энтропия растет, хотя на микроуровне все процессы обратимы и направления времени «вперед» и «назад» симметричны.

Шеннон ввел понятие энтропии в качестве меры неопределенности знания о чем-либо, а сообщение как средство увеличения знания. Соответственно сообщение, переданное по каналу, связи, уменьшает первоначальную энтропию, а шум в канале увеличивает энтропию сообщения. Отсюда родилось понятие информации как меры уменьшения энтропии. Энтропия Шеннона есть сумма произведений вероятности состояния системы на двоичный логарифм этой вероятности, взятая с обратным знаком. Для вычисления энтропии, следовательно, требуется знать распределение вероятностей. Концепция Шеннона позволила ему построить фундаментальную теорию, которая получила широкое признание, большое практическое применение и продолжает интенсивно развиваться.

Аналогия между термодинамической энтропией (энтропией Клаузиуса), энтропией вероятности состояний (энтропией Планка) и информационной энтропией (энтропией Шеннона) сыграла определенную положительную роль в формировании концепции организации, упорядочения и случайности.

И. Пригожин показал, что нелинейные неравновесные процессы способны порождать макроорганизацию, для которой можно сформулировать условия устойчивости. Если эти условия не выполняются, могут возникнуть новые упорядоченные структуры, и т. д. Современные математические методы позволяют описывать такие процессы, но не позволяют определять, по какому из возможных путей пойдет развитие от неустойчивых точек. Система как бы «выбирает» свое дальнейшее поведение, и то, что аппарат описания процесса допускает возможность такого выбора, свидетельствует о несовершенстве наших физических знаний, в частности знаний об энтропии как «меры организации».

Представление об энтропии эволюционировало вместе с представлением об энергии — основной категории естествознания.

Под энергией понимается общая мера различных процессов и видов взаимодействия. Энергия позволяет измерять различные физические формы движения и взаимодействия единой мерой. Энергия есть первичная категория, количественно характеризующая фундаментальные свойства материального мира. Отсюда — по аналогии — возникло определение энтропии как меры «беспорядка», «дезорганизации» физической системы, а негэнтропии как меры организации.

Категории движения и покоя вполне обоснованы физически, но понятие организации физического обоснования и объяснения не имеет. Когда говорят о мере, прежде всего предполагается возможность измерения («физика — это отклонение стрелок»). Энтропия — единственная физическая величина, которая не измеряется, а вычисляется.

И все же благодаря энтропии мы нащупываем путь к сущности организации материи.

Определенную роль в этом смысле сыграла теория информации. Словарное определение термина «информация» многозначно:

1) совокупность каких-либо сведений, знаний о чем-либо;

2) сведения, являющиеся объектом хранения, передачи и переработки;

3) совокупность