Становление системности

Даже из этого небольшого обзора основных идей тектологии видно, что Богданов предвосхитил, а кое в чем и превзошел многие положения современных кибернетических и системных теорий. Тектология была “ориентирована на самый широкий охват реальности организационными категориями”, и это явилось первым из того класса характерных для XX века системных подходов, которые приобрели статус общенаучных, проторив дорогу кибернетике и синергетике. Последние можно считать наиболее крупными (в концептуальном плане) вкладом в философию, в формирование современных представлений о явлениях самоорганизации и развития мира в целом.

Эволюция представлений об энтропии

Прежде чем рассматривать следующие этапы развития системного подхода и системных исследований, необходимо объяснить и уточнить некоторые понятия, которые мы уже упоминали и будем использовать в дальнейшем. Проникновение методов теории информации в физику, биологию и другие области естествознания показало тесную взаимосвязь понятия количества информации с естественно-научным понятием “энтропия”.

Понятие энтропия, первоначально введенное Р. Клаузисом лишь с целью более удобного описания работы тепловых двигателей, усилиями многих ученых, и прежде всего Л. Больцмана, стало играть универсальную роль, определяя многие закономерности в поведении макроскопических систем. В 30-е годах нашего столетия энтропия стала мерой вероятности информационных систем и явилась основой теории информации (работы Л. Сцилларда, К. Шеннона)

Связь между энтропией и вероятностью установлена Л. Больцманом и выражается знаменитой формулой, носящей имя этого ученого:

H = slnW ,

где H

- энтропия, W

- термодинамическая вероятность состояния.

Существенно, что Больцман, связав второй принцип термодинамики с теорией вероятности, показал, что убывание энтропии не является невозможным, а только маловероятным. Второй принцип термодинамики становится констатацией того факта, что информация теряется различными способами, что ведет к увеличению энтропии системы, но, чтобы приобрести новую информацию и уменьшить энтропию, следует произвести новые измерения, т.е. затратить энергию

В конце 40-х годов Э. Шредингер, а затем и Н. Винер существенно расширили понятие энтропии - до понимания ее как меры дезорганизации систем любой природы. Эта мера простирается от максимальной энтропии (H=1), т.е. хаоса, полной неопределенности, до исчезновения энтропии (H=0), соответствующего наивысшему уровню организации, порядка.

Таким образом, можно выделить следующие этапы развития понятия энтропии, где она выступает как:

* мера рассеяния тепловой энергии в замкнутой термодинамической системе

-

Клаузис, Больцман

(1852 год)

* мера вероятности информационных систем (мера количества информации)

-

Сциллард, Шеннон

(1929 год)

* мера дезорганизации систем любой природы

-

Шредингер, Винер

(!944 год)

С помощью энтропии стало возможно количественно оценивать на первый взгляд качественные понятия, как “хаос” и “порядок”. Информация и энтропия связаны потому, что они характеризуют реальную действительность с точки зрения именно упорядоченности и хаоса, причем если информация - мера упорядоченности, то энтропия - мера беспорядка; одно равно другому, взятому с обратным знаком. Например, если на предприятии низка трудовая и технологическая дисциплина, идет брак, то мы можем утверждать, что здесь низок уровень организации, или велика энтропия. Она угрожающе растет ныне и в нашей экономике, социальной жизни.

Перейти на страницу: 1 2 3 4 5 6 7 8

Меню сайта