Опыт показывает, что многие люди не знают точного определения понятия «вероятность». Для них в приложении приведен простой пример расчета энтропии по приведенной выше формуле. Вероятность меняется от нуля до единицы (достоверное событие). В обиходе иногда принимают вероятность от нуля до ста процентов.
Вывод этой формулы сделан при учете только самых простых и общих предпосылок (рис. 1). При этом не вводились никакие энергетические ограничения. Поэтому из этой формулы следует, что энтропия всегда растет, в любых материальных системах. Причем расчет по этой формуле показывает, что скорость возрастания энтропии тем выше, чем ближе друг к другу вероятности перехода из точки бифуркации в возможные состояния. Например, – при P1 = P2 на рисунке 1.
В соответствии с этой формулой энтропия никогда не может самопроизвольно снижаться.
Взглянем ещё раз на формулу Шеннона. В каких единицах измеряется энтропия? Вероятности P безразмерны, значит, размерность энтропии равна размерности произвольной постоянной k, которая по своей сути может быть любой. Принято принимать размерность этой величины, исходя из сущности рассматриваемой системы. В теории информации она имеет размерность в битах, в термодинамике, – в Дж/(кг·К). В любой другой системе необходимо описать два близких во времени состояния и вычислить вероятность второго по отношению к первому. Или определить её опытным путем. Тогда безразмерная часть формулы Шеннона будет определена. А размерность энтропии будет равна размерности сделанных описаний изучаемой системы. Если они имеют физический смысл, то и размерность будет иметь физическую природу. Если же в описании нет физического смысла, например, описание в виде текста из букв, то размерность энтропии совпадает с размерностью информации (бит).
Теперь ясно, формула пригодна для материальных систем любой сущности (живая и неживая природа, человеческие сообщества, любые машины, кибернетические устройства и т.п.). И, конечно, эта формула есть в статистической физике, выведенная великим американским ученым Дж. Гиббсом2
Но исторически сложилось так, что люди всегда видели в природе явления, которые как будто не подчиняются этому закону. Это, прежде всего, изобретения, технологические приемы в обычной текущей жизни людей. Даже, например, изобретение колеса или способа приготовления пива были явным усложнением простых явлений природы. И тут появляются в девятнадцатом веке тепловые машины, а с ними термодинамика. А с ней и ВТОРОЙ ЗАКОН! Он вызвал большую неразбериху в науке и множество яростных споров, которые со временем поутихли, кроме одной совершенно непонятной проблемы. Дело в том, что появившаяся в это же время теория эволюции Дарвина явно, как казалось, нарушала второй закон термодинамики. Налицо был колоссальный процесс усложнения, упорядочивания материи.
Этот, «второй закон» связан только с термодинамикой, с термодинамическими системами. Его нельзя распространять на всю остальную природу. В том числе на биологические системы, и на эволюцию. Как же быть с энтропией? Многие ученые пытались найти в природе какое-нибудь явление или процесс, который бы шел с самопроизвольным снижением энтропии. Особенно много времени и энергии потратил на эти поиски И.Р. Пригожин. Он нашел, что флуктуации – случайные отклонения некой величины, характеризующей систему из большого числа единиц, от ее среднего значения могут приводить к локальному снижению энтропии. Но ничего конструктивного, объяснительного эта находка для эволюции не дала. Её процесс явно закономерен и далек от небольшого влияния флуктуаций. Были и другие попытки, но и они не принесли необходимого результата.
Так что уважаемый читатель не надейтесь на предопределенность жизненных ситуаций. Случайность есть и всегда поджидает нас. Действие же её непредсказуемо и далеко не всегда благоприятно.
2. Альтернатива закону о необратимости явлений реального мира
Но, видимо, в Природе существует какой-то процесс, который компенсирует естественный рост энтропии. Не изменяются атомы и молекулы; например, капля воды, только что полученная в химической реакции неотличима от капли, поднятой со дна Тихого океана из самого глубокого места. Возраст последней может оказаться равным многим миллиардам лет. Растут кристаллы, произошла эволюция Жизни, идет технический прогресс. Все эти процессы происходят с упорядочением, с усложнением систем. Но применима ли для них аксиома о точках бифуркации? Конечно, применима, но только в случаях, когда присутствует отличная от единицы вероятность перехода системы в будущие состояния.
Как же избежать этого вероятностного характера явлений? Идея здесь может быть только одна – надо исключить случайность! Но как это сделать? Нельзя ли в аксиоме о точках бифуркации (Рис. 1) довести значения одной из вероятностей до единицы, т.е. до достоверного события. Да, можно, конечно. Но только локально в ограниченных масштабах и пространства, и времени. В природе, в быту человеческого существования таких явлений не счесть. Включили настольную лампу. Вероятность того, что она включена, равна единице. Выключили – вероятность предыдущего события стала равна нулю. Такие явления прерывисты, дискретны, меняются скачками. Дискретны атомы и молекулы. Дискретны люди, машины, животные и растения, и алгоритмы. Последнее очень важно.
И говорить об энтропии в случае, когда вероятности перехода в будущие состояния равны единице или нулю, нет смысла. Её просто нет.
Алгоритм представляет процесс как последователь ное выполнение некоторых простых действий. При этом для выполнения каждого шага алгоритма требуется конечный отрезок времени, то есть этот процесс осуществляется во времени дискретно. Интуитивно, кажется, что алгоритм либо есть, либо его нет, без каких-либо промежуточных состояний. Нельзя оказаться между двух алгоритмов. Но обсудим это явление подробнее. Отметим только, что алгоритм – одно из главных понятий кибернетики.
Разделим (следуя редукционизму) существующие в Природе алгоритмы на три категории:
1. Алгоритмы, связанные с действием на макроскопические элементы природных систем, – организмы и их внутренние циклы (кровообращение, рефлексы, пищеварение и т.д.), люди и машины, социальные и технические системы, циклы в неживой природе (кругооборот воды в атмосфере и т.д.).
2. Алгоритмы, связанные с химическими реакциями. В том числе и биохимические алгоритмы.
3. Гипотетические алгоритмы функционирования полей внутри элементарных частиц материи (фотоны, электроны и т.д.).
Для первой группы алгоритмов первостепенное значение имеет понятие обратной связи (Рис. 2). Существует два крайних случая обратной связи.
Отрицательная обратная связь, «при которой изменение выходного сигнала системы приводит к такому изменению входного сигнала, которое противодействует первоначальному изменению».
Рис. 2 Обратная связь
Положительная обратная связь, «при которой изменение выходного сигнала системы приводит к такому изменению входного сигнала, которое способствует дальнейшему отклонению выходного сигнала от первоначального значения».
Для нас сейчас важна ситуация с положительной обратной связью, когда внешний импульс приводит к лавинообразному нарастанию сигнала на выходе за счет внутренней энергии системы до максимального энергетического уровня. Это нарастание через некоторое время прекращается и выходной сигнал сбрасывается. На выходе системы образуется импульс, который идет далее к другим системам. Резкое спадание импульса на выходе и его амплитуда зависят от внутреннего устройства системы. Например, все компьютеры в основе своего устройства имеют специальную схему с положительной обратной связью – триггер. Сигнал на его выходе быстро достигает уровня напряжения источника питания и затем переключается на низкий уровень. На выходе триггера получается прямоугольный импульс напряжения. При возбуждении нервной клетки, например, от внешнего воздействия (палец оказался вблизи открытого огня – нервная клетка как рецептор чувствует тепло) она возбуждается и на её выходе, связанном с другими клетками, нарастает сигнал (электрический ток в виде перемещения ионов). Но ресурсы клетки ограничены, и импульс кончается, а образовавшийся сигнал движется по нервам, распространяясь до мозга, который дает обратный импульс мышце, отдергивающей руку от огня. А начальная клетка – рецептор уже накопила энергию и готова опять послать импульс. В природе, в технике такие системы (элементарные структуры) могут быть чрезвычайно разнообразны. Например, могут иметь несколько выходов или входов. И, конечно, всегда для их работы необходима энергия.