КулЛиб - Классная библиотека! Скачать книги бесплатно 

Одна формула и весь мир [Евгений Александрович Седов] (fb2) читать постранично, страница - 3


 [Настройки текста]  [Cбросить фильтры]

столько и она так многообразна, что этот процесс невольно стали сравнивать со взрывом. Вошло в обиход понятие информационного взрыва, с которым надо было как-то справиться, как-то его «укротить». Вот так и возникла потребность в машинной переработке огромных массивов информации и хранении ее в памяти электронных систем. В связи с этим задач — и теоретических, и практических — пришлось решить не мало. Но возникают все новые и новые. В частности, информационные потоки продолжают нарастать, поэтому надо все время увеличивать быстродействие электронных машин и объемы их памяти.

Но чтобы решить задачу количественного измерения информации, надо было отойти от традиционного понимания информации и выработать некий универсальный подход. Прикладная поначалу задача явно перерастала в естественнонаучную. И стоило лишь науке отыскать универсальный способ измерения информации, как ему сразу открылась широкая дорога в самые различные отрасли знания — от физики до языкознания... Ныне в научных изданиях можно встретить утверждения, которые в прошлом были просто невозможны. Например, такое: микроскопическая половая клетка содержит в себе такое количество наследственной информации, которое не уместилось бы на страницах тысячи книг.

Позвольте, сказал бы некто в недалеком прошлом, книга содержит мысли и чувства ее автора, какие-то сведения, но причем здесь половая клетка, о какой информации тут можно говорить!? Вы объединяете в одно разные вещи... Конечно, разные. И конечно же, не разные. К такому подходу надо было привыкнуть и уже, кажется, привыкли, как привыкли к тому, что природа света одновременно и корпускулярная и волновая.

Для измерения количества информации американский ученый К. Шеннон предложил использовать заимствованную у термодинамики вероятностную формулу энтропии. Сначала многие ученые, включая и самого Шеннона, склонны были объяснять этот факт ссылками на удобства расчетов. Но постепенно стал проясняться скрытый ссылками на удобства глубокий смысл. Информация содержится не только в книге. Она есть и в живой клетке, и в мертвом кристалле, ее может хранить и наша естественная память и память бездушной машины. Информационное взаимодействие так же присуще материальному миру, как присущи ему и другие формы взаимодействий, объединенные таким понятием, как всеобщая связь явлений. Понимание и признание этого открыли перед естествознанием еще один путь познания мира, причин и механизмов возникновения и развития разнообразных самоорганизующихся систем, противостоящих энтропии.

В этой книге читатель узнает о том, как постепенно, с разных ракурсов и со многих заходов наука постигала сложную и многогранную сущность абстрактного и всеобъемлющего понятия энтропии, пока различные толкования не стали сливаться в единое представление (разумеется, еще далеко не завершенное).

А поняв энтропию и вооружившись ею как новым инструментом познания, можно увидеть в новом ракурсе и переосмыслить многие явления окружающего нас мира.

Решившись рассказывать об этих больших событиях в современной науке в форме, доступной широкому кругу читателей, автор заранее просит прощения у специалистов обсуждаемых здесь областей точных наук. Говоря о главном, приходится опускать многие частности, которые кажутся необходимыми специалисту, но могут увести в сторону тех, кто не подготовлен заранее к обсуждению этих проблем. Специалисты вправе упрекнуть автора в том, что, рассказывая о преемственности статистической теории энтропии и об использовании формулы Больцмана в теории информации, автор не упомянул, что в теореме Больцмана эта формула имела несколько иной вид. Умолчать пришлось и о том, что функция  пригодна лишь для дискретных случайных событий, а широкое ее применение обусловлено тем, что непрерывно меняющаяся информация тоже может передаваться дискретно с определяемой теоремой Котельникова частотой.

Специалист может настаивать также на том, что автору не следовало называть энтропийными разнообразные случайные (иррегулярные, стохастичные) процессы, не уточнив предварительно, что величина энтропии может быть подсчитана либо для заданного непрерывного закона распределения вероятностей, либо для полной группы слу чайных событий. И наконец, если относиться к научной терминологии с подобающей строгостью, то следовало ска зать, что энтропия — это мера, степень неопределенности (хаотичности) вероятностных (стохастичных) систем и процессов, и не отождествлять энтропию с самим хаосом, как это сделано ради образности и краткости и в этой книге, и в книге Ф. Ауэрбаха «Царица мира и ее тень», и в целом ряде других популярных статей и книг

Признавая справедливость всех этих и еще многих подобных им уточнений, я все же намеренно опускаю их в дальнейшем рассказе, поскольку любое попутное замечание подобного рода