<<

стр. 2
(всего 12)

СОДЕРЖАНИЕ

>>

принимающей системы и ее структуры.
2. Информацию рассматривают как процесс, взаимосвязь, отношение между явлениями системы.
Информацию для получателя дают не всякие значения, сведения и данные, а лишь те новые, которые до
получения информации не были известны получателю, и поэтому они уменьшают неопределенность
получателя и, следовательно, увеличивают ОНЭ по отношению к интересующему нас целевому
критерию. Данные должны содержать для получателя новую и полезную для решения каких-либо задач
информацию.
Таким образом, информацией является только такой процесс (связь) между системами, в
результате которого увеличивается ОНЭ хотя бы одной из систем из-за получения новых знаний,
сведений, данных и снижается неопределенность системы получателя информации.
Как было сказано, обобщенная энтропия (ОЭ) определяется как реальная (ОЭр) и как максимально
возможная (ОЭmax).
Так как обобщенная негэнтропия (ОНЭ) определяется в общем случае по разности ОНЭ = ОЭmax ?
ОЭр, то для определения ОНЭ необходимо сначала определить ОЭмакс и ОЭр, которые характеризуют
соответственно максимально возможную и реальную (после принятия информации) неопределенность
системы. Для определения ОЭмаx и ОЭр должны быть известны цель, или назначение системы, и
условная вероятность их достижения в зависимости от действия тех факторов, которые оказывают
существенное влияние на систему [2,13]. Обобщенность в понятиях ОЭ и ОНЭ обозначает, что их
можно определить для всех моделей, как физических систем, так и умственных, или интеллектуальных,
систем.
ОЭ и ОНЭ для моделей системы являются конечными величинами, поэтому можно определить их
численные величины, что позволяет оптимизировать качество и эффективность творческого труда
людей и организации.
Для определения ОЭр основным показателем является критерий назначения, или цели, системы.
Учет целевых критериев позволяет исследовать неопределенности и обобщать понятия ОЭ и ОНЭ в
любых системах, включая технические, экономические, научные, правовые, умственные и т.п. [15].
В работах [13, 15] не исследуются вопросы физической энтропии и НЭ открытых систем, а
исследуются только информационные (или обобщенные) энтропия (ОЭ) и негэнтропия (ОНЭ). В самом
деле, в формулах определения ОЭр применяются критерии вероятности выполнения цели, или
целесообразности, которые не являются физическими показателями. В формулах по определению ОНЭ
(ОНЭ = ОЭмакс ? ОЭр) применяются не любые данные, а только такие, которые существенно влияют на
достижение целей системы.
В каждой системе или процессе по разным закономерностям изменяются как ее энтропия (ОЭр и
ОЭмакс), так и ее негэнтропия (ОНЭ); не существует открытых систем или процессов, характеристикой
которых была бы только ОЭр или только ОНЭ. Причем в изолированной системе ОЭр должна
повышаться быстрее, чем (локально) ОНЭ [15].
Физическую НЭ можно наблюдать ежедневно вокруг себя. Физической НЭ являются многие
реальности вокруг нас. Так, поток световой и тепловой энергии Солнца, попадающий на Землю,
содержит много НЭ. Любая разность (градиент) температур, давления, электрического напряжения
является НЭ.
Физическая энтропия не всегда характеризует только процессы разрушения. На самом деле
физическая энтропия показывает сложность, неопределенность физической системы и недостаток
сведений о ней. Как показал И. Пригожин, в открытых системах с большой энтропией (беспорядком) в
определенных условиях могут возникать упорядоченные подсистемы, "новые структуры", т.е.
повышаться ОНЭ.
Разработаны методы для определения и оптимизации основных показателей ОЭмакс, ОЭр, ОНЭ для
систем и моделей в различных областях [2].
Показатели ОЭмакс, ОЭр, ОНЭ включаются в модели описания реальных объектов.
В [5] рассмотрены модели различных систем с учетом наличия вещества, энергии, ОЭ и ОНЭ
конкретной системы.
Так, методы разработки бизнес-планов фирм обычно основываются на составлении прогнозов
материальных, энергетических и финансовых балансов во время деятельности фирмы. Однако если к
материальным, энергетическим и финансовым балансам фирмы добавить еще балансы ОЭ и ОНЭ, то
существенно повышается эффективность прогнозов деятельности фирмы.
Анализ модели системы управления производством показывает, что более надежное управление
достигается только после учета в моделях дополнительных ОЭ- и ОНЭ-критериев. Последние
определяются относительно цели производства и влияния других возмущающих систем [5].
При составлении модели управления технологическими процессами сначала составляют
концептуальную модель, в которой рассматривают в совокупности все необходимые процессы, их связи
и влияющие на них внешние воздействия, и на этой основе составляют материальные, энергетические и
финансовые балансы. Однако из-за вероятностного характера данных и из-за возможностей увеличения
неопределенностей сильно уменьшается точность результатов. Причем неопределенность создают
изменения окружающей среды, рыночные отношения, качество сырья или промежуточные продукты.
По-видимому, надежность моделей и оптимальность решений можно существенно улучшить путем
дополнительного введения критериев ОЭ и ОНЭ [15].
При помощи критериев ОЭ и ОНЭ удается лучше моделировать такие элементы человеческого
сознания, как интуиция, эмоции, знания, вера, память и др. Эффективность деятельности сознания
можно оценить по изменению ОНЭ в моделях, отражающих объекты. На основе анализа ОЭ и ОНЭ
можно оценить основные результаты умственной деятельности человека (научные теории, идеи,
художественные произведения, прогнозы, проекты и т.п.)
В диссипативных системах, которые возникают при наличии активных окружающих сред и
достаточного притока вещества, энергии и ОНЭ, наблюдается образование структур (ОНЭ) из активных
элементов, которые могут быть бистабильными, возбудимыми или автоколебательными. Составление
математических моделей сложных систем со многими независимыми переменными затруднительно.
Системы дифференциальных уравнений дают множество решений, которые могут приближаться к
хаосу. Иногда фазовый объем их сжимается, и все решения диссипативной системы будут стягиваться к
некоторому подмножеству, к так называемому простому, или странному, аттрактору. Неопределенность
(ОЭмакс и ОЭр) для реальных моделей заключается в том, что количество решений и размерность
аттракторов зависит от многих факторов, коэффициентов в уравнениях и ограничительных условий.
Хаос и неопределенность, характеризуемые ОЭ, можно существенно уменьшить, дополняя модели
балансами ОНЭ относительно целевого критерия системы как "черного ящика". По данным ОЭ и ОНЭ
можно определить вероятность достижения целевого критерия системы в зависимости от существенных
факторов.
Для характеристики систем применяются такие понятия, как структура, упорядоченность,
организованность, сложность управляемости и т.п. При этом оценить и сравнить вышеуказанные
понятия количественно позволяют методы расчета ОЭмакс, ОЭр, ОНЭ.
1.4. Соотношение между порядком и беспорядком в технике, природе и в обществе
Человеческое сообщество как система, развиваясь, снижает меру своей неупорядоченности через
позитивную деятельность, достигая все большей организованности, регламентации и управляемости.
Отсюда следует, что эволюция общества антиэнтропийна, так как она дает нам больший порядок?
Однако сразу возникает вопрос: а куда же денется внутренний беспорядок Дело в том, что беспорядок,
отрицательная сторона деятельности людей, направленная на улучшение жизни, не исчезает "в никуда",
а буквально выбрасывается во вне и, как ни странно, может вернуться обратно совершенно
неожиданной стороной. К примеру, вы в квартире навели полный порядок, и тем самым вы удалили из
квартиры во вне беспорядок (мусор, грязь, пыль, а через канализацию в реку вылили грязную воду с
химическими чистящими средствами); тараканы, от которых вы решили избавиться, перебегут к
соседям, а когда соседи, так же как вы, прогонят тараканов, они могут вернуться к вам. К тому же вы
можете пользоваться водой из той речки для питья или стирать в ней.
Всегда при уменьшении энтропии в данной системе лишний беспорядок "выталкивается" во вне,
чем увеличивается энтропия внешнего мира (окружающей среды). Это происходит и на международном
уровне, для поддержания лучшей жизни и порядка в своем государстве (структурах общества) люди
стремятся сбросить на другие государства или структуры общества свой "негатив" (энтропию),
например отходы, грязную продукцию, социальную напряженность, что увеличивает беспорядок у них.
Таким образом, всегда возникает противоречие между развитием общества и генерируемым им
беспорядком на разных структурных уровнях, не только на внутригосударственном, но и на
международном. Иначе говоря, при ограниченных ресурсах упорядоченность в одном месте достигается
за счет увеличения беспорядка в другом месте. Отсюда вывод: структурирование общества нужно
начинать снизу, с регионов, увеличивая долю местного самоуправления и уменьшая централизацию
власти [5].
Следует отметить, что энтропия равна мере беспорядка (хаоса), дезорганизованности,
неопределенности только при постулате равновероятности событий. Что касается общего случая при
неравновероятности событий, энтропия равна сумме мер беспорядка и порядка. Современная модель
равновесия рассматривает круговорот природы, где соотношение частей и целого описывается по
правилу "золотой пропорции", которое иногда называют законом гармонии природы [18]. Этот закон
"золотой пропорции" "работает" при описании ряда общих свойств живой и неживой природы,
общества, экономики. Равенство мер порядка и беспорядка определяет равновесие круговорота
природы и общества.
Кроме того, известно, что при развитии систем энтропия по одним параметрам растет, а по другим
параметрам уменьшается. По одним параметрам системы увеличивается порядок, упорядоченность,
организованность, а по другим ? наоборот, ухудшается порядок и организованность. Переход всей
системы от беспорядка к порядку по всем параметрам не происходит.
Стремление к полному порядку в природе и обществе бессмысленно и недостижимо. Поэтому
надо искать оптимальное соотношение порядка и беспорядка, т.е. баланса между ними. То же касается
управляемости и неуправляемости. Это значит, что не надо стремиться управлять всем. Что-то надо
передавать для самоуправления и самореализации, иначе не хватит ресурсов [5].
Известно, что за счет роста энтропии в окружающем пространстве возможна стабилизация
неравновесного состояния данной системы, а жизнедеятельность ? социальной организации сопряжена
с неизбежными разрушениями среды и с антропогенными кризисами. Такая ситуация возникает при
существовании любой устойчивой неравновесной системы, включая биологические организмы.
Поэтому эволюционные экологические кризисы сопровождали всю историю биосферы, принимая
периодически глобальный характер, а противоречия между обществом и природой надстраиваются над
столь же имманентными противоречиями между живым и мертвым веществом.
Развитие любой системы начинает ограничиваться, когда для своего поддержания она создает
слишком много беспорядка вокруг, т.е. ее существование становится чересчур затратным,
разрушительным для среды. В результате механизмы, обеспечивающие относительно устойчивое
состояние на прежнем этапе, становятся контрпродуктивными и оборачиваются своей
противоположностью ? опасностью катастрофического роста энтропии. Подобная система либо
погибает, либо "перестраивается" в менее разрушительную для окружения систему.
Наука, образование, культура являются антиэнтропийными факторами и повышают негэнтропию
общества.
Феномен культуры (науки, образования и т.п.) необходимо интерпретировать как
антиэнтропийный эволюционный процесс, развивающийся в координатах многомерного пространства и
нелинейного времени, что делает естественным понимание неизбежности катастроф и бифуркаций,
сопровождающих этот процесс. Поэтому необходим поиск ограничений и средств сдерживания,
способствующих смягчению разрушительных ударов энтропии на соответствующих фазах эволюции
[25].
Антиэнтропийная направленность социокультурной эволюции позволяет выявить важную
закономерность этого процесса. В самом деле, из второго начала термодинамики следует, что платой за
каждое очередное повышение уровня структурной организованности открытой самоорганизующейся
системы являются все возрастающие выбросы энтропии в окружающую среду, что означает
автоматическое и неизбежное возрастание уровня требований к системам управления и регулирования,
необходимость постоянного поиска и введения в действие все более эффективных средств сдерживания
обратных энтропийных разрушительных воздействий. Необходимо немедленно и даже с опережением
реагировать на каждый натиск энтропии. Сегодня за возможные упущения в выработке
соответствующей антиэнтропийной стратегии придется платить очень дорого.
Еще раз подчеркнем, что человечество в своем развитии наталкивается на противостояние порядка
и беспорядка, негэнтропию и энтропию. Ведь решая одну важную проблему, человечество немедленно
порождает другую, часто еще более опасную.
Наука снабдила человечество ядерным, химическим, биологическим и прочим оружием, которое
способно многократно уничтожить все живое на планете, но теперь надо находить пути избавления от
этого оружия. Аналогично этому наука создала антибиотики и другие сильные препараты, спасшие
жизнь миллионам людей, но тем самым был ускорен естественный отбор в мире микроорганизмов, что
привело к появлению штаммов, устойчивых ко всем созданным препаратам, а значит, к новому витку
опасности и т.д. Такой список можно продолжать до бесконечности. Таким образом, решая одну
глобальную проблему, человечество немедленно создает другую, и часто более страшную.
Степень организованности системы определяется количеством содержащейся в системе энтропии
[12].
Однако термодинамический подход к живому организму как к некоторому "упорядоченному газу"
одно время практически был отклонен, так как он не позволял изучать структурно-функциональные
стороны организмов. Но этот подход возрождается, когда начинают заниматься анализом
организованности безотносительно к системам специального типа, т.е. когда начинают вырабатывать
общие понятия организованности и самоорганизованности. Характерной чертой этих исследований
является то, что организованность понимается как нечто интуитивно ясное, а понятие энтропии
строится таким образом, чтобы "обосновать" эту интуицию. Таким образом, можно зафиксировать
наличие разрыва между инженерными средствами и теоретическим осознанием, в котором
используются никак не связанные с инженерными средствами, чуждые им термодинамические
представления. В силу этого отсутствует общее понятие организованности, которое бы фиксировало
структурно-функциональные черты сложных организмов.
Возникают вопросы: что обычно понимают под организованностью, какова природа
интуитивности представления об "организованности" и "порядке"? Так, для непосвященного древний
узор будет представлять собой хаотическое нагромождение точек и линий, а археолог, соотнося его с
имеющимся у него стандартом древнего письма, увидит в этом узоре текст, т.е. организованную
систему. Из этого вытекает, что один и тот же объект по отношению к одним стандартам, например к
стандарту древнего письма, будет организованным, а по отношению к другим ? беспорядочным,
неорганизованным. Сквозь призму одних стандартов степень организованности будет увеличиваться, а
сквозь призму других ? уменьшаться. Сегодня стандартом неорганизованности используют энтропию
[12] В этом плане под управлением в обществе понимается способ воздействия, побуждающий людей к
упорядоченному, или организованному, поведению, выполнению требуемых действий, соблюдению
законов. Под информационным управлением понимается механизм, когда управляющее воздействие
носит неявный, косвенный, информационный характер и объекту управления (ОУ) дается определенная
информационная картина, ориентируясь на которую он как бы самостоятельно выбирает линию своего
поведения, или организованность.
1.5. Законы энергоэнтропийного баланса
За точку отсчета энтропии любой живой и неживой системы можно принимать максимально
упорядоченное состояние системы, когда энтропия системы становится равной нулю (Э = Эо = 0).
Основные виды энтропии это ? структурная и информационная энтропия. Структурная энтропия
служит мерой неупорядоченности строения системы. Так, например, если из строительных деталей
собрать дом или из деталей автомобиля собрать автомобиль, то структурная энтропия этих систем
уменьшится, ибо упорядоченность их возрастет [2].
Информационная энтропия ? это мера неопределенности информации. Информация эквивалентна
отрицательной энтропии, или антиэнтропии.
Так как информационная энтропия является мерой неопределенности в информации


то информационная энтропия обращается в нуль, Когда одна из вероятностей w, равна единице, а
все остальные равны нулю, т.е. неопределенность в информации отсутствует. С другой стороны,
информационная энтропия (Эинф) принимает максимальное значение, когда все wi, равны l/k, т.е.
имеется максимальная неопределенность и, следовательно, содержит минимальное количество
информации о процессе.
В качестве примера информационной энтропии рассмотрим газ. Известно, что при охлаждении
газа до температуры абсолютного нуля, он сначала переходит в жидкое состояние, а затем в твердое,
т.е. происходит переход газа из менее упорядоченного состояния, когда частицы газа "гуляют" и могут
находиться в любом месте (информация о месторасположении частиц газа отсутствует), в более
упорядоченное состояние, когда частицы газа четко размещаются в определенных местах. Поэтому
растет информация о расположении частиц газа, и она достигает максимальной величины при
абсолютном нуле, когда все частицы займут вполне определенное положение в твердом теле и
информационная энтропия снизится до нулевого значения.
Открытые системы, вследствие того, что взаимодействуют с внешней средой, могут получать
извне энергию, вещество, информацию и за счет этого изменять свою структуру, повышать
организованность и определенность, иногда вплоть до самоорганизации, и тем самым уменьшить
энтропию системы. Однако рост организованности и определенности системы и уменьшение ее
энтропии происходит за счет одновременного роста энтропии окружающей среды. Важно заметить, что
существование процессов с уменьшением энтропии в открытых системах не противоречит второму
закону термодинамики. Ибо все они могут получать извне запасы энергии, вещества, информации,
поддерживающее их изменение и развитие. За счет этого развиваются живые и неживые объекты.
При любом изменении состояния и структуры открытой системы и ее развитии изменение ее
энтропии ?Э можно условно представить из двух составляющих ?Э = ?Э1 + ?Э2, где ?Э1 есть
изменение энтропии системы (и, как правило, уменьшение энтропии ?Э, < 0) за счет обмена этой
системы с внешней средой и получения извне дополнительной энергии, вещества, информации. ?Э,
направлено в сторону неравновесности и изменения структуры системы. Напротив, ?Э2 есть изменение
энтропии системы (?Э2 > 0) в результате процессов, происходящих только внутри самой системы без
влияния внешней среды. dЭ2, чтобы повысить организованность системы, всегда самопроизвольно
направлено к равновесию. Причем для необратимых процессов всегда ?Э2 > 0, а для обратимых
процессов ?Э2 = 0. Поскольку в силу второго закона термодинамики для любых систем, включая
открытые, справедливо ?Э2 ? 0, то общее уменьшение энтропии открытых систем (?Э < 0) возможно
лишь за счет составляющей ?Э1 < 0. Только в этом случае увеличивается организованность и снижается
неопределенность системы. Так, живой организм может оставаться живым, только постоянно извлекая
из окружающей среды энергию, вещество, информацию или отрицательную энтропию. Открытые
системы неравновесны и поэтому Э < Эмакс. Ясно, что неравновесные системы более организованны,
чем равновесные.
Закрытые, или изолированные, системы, в отличие от открытых, не обмениваются с внешней
средой энергией, веществом, информацией, вследствие чего для закрытых систем энтропия не может
уменьшаться, а может только увеличиваться ?Э > 0. Поэтому в закрытых системах происходят
необратимые изменения и постепенное разрушение их структуры за счет нарастания в них
неопределенности и хаоса, вызываемых возрастанием энтропии.
Открытые системы могут тем больше повысить степень своей организованности, чем они более
открыты к среде (если, конечно, окружающая среда неагрессивна и не содержит излишней энтропии,
например в виде наркотиков, террористов, болезней) и чем больше получают от среды положительной
энергии, вещества, информации.
Необходимо отметить, что для того чтобы в системах началось образование новой структуры,
необходимо, чтобы освобождение системы от энтропии превысило некоторое критическое значение,
что означает, что уровень внешнего воздействия среды на систему должен превышать какое-то
критическое значение.
Таким образом, в материальных макроскопических системах любые изменения всегда
сопровождаются теми или иными изменениями энергии и энтропии. В изолированных системах энергия
сохраняется, а энтропия растет, что касается открытых систем с подводом извне энергии, то общий
баланс энергии тоже сохраняется (с учетом ее поступлений и потерь), энтропия же уменьшается на
определенную величину, зависящую от соотношения количеств подводимой и теряемой энергии [2].
Эти особенности энергии и энтропии сделали метод исследований с помощью составления и изучения
энергоэнтропийных балансов ? энергоэнтропику ? довольно универсальным [2].
Энергоэнтропика, или энергоэнтропийный баланс, имеет свои законы. Рассмотрим вкратце пять
таких законов.
Первый закон ? закон сохранения энергии. Ни одна материальная система не может
функционировать и развиваться, если не потребляет энергию ?Е, которая расходуется на совершение
работы W, на изменение внутренней энергии ?U и на рассеяние тепла в окружающую среду Qoc:
?Е = ?U + W + Qoc (1.2)
Если принять, что Qос = 0, тогда ?Е = ?U +W. Работа W расходуется на изменение состояния
внешних систем, например упорядочение структуры, извлечение информации, перемещение в
пространстве и т.д.
Второй закон ? возрастания энтропии. Изолированные (закрытые) макроскопические системы
стремятся самопроизвольно перейти из менее вероятного состояния в более вероятное или из более
упорядоченного состояния в менее упорядоченное состояние (при отсутствии сил, препятствующих
этому), и их энтропия может возрастать
(1.3)
Знак больше (>) относится ко всем реальным изолированным неравновесным, необратимым
системам, а знак (=) равенства ? только к нереальным (идеальным) обратимым системам.
Известно, что абсолютно изолированные реальные системы на практике не существуют. К
изолированным системам условно и приближенно можно относить, например, разлагающийся труп
животного, длительно разрушающийся дом, съедаемый коррозией кузов автомобиля и т.п. Поскольку в
активной форме "упорядочивающее действие" над ними за счет затрат энергии не совершается, т.е. они
не ремонтируются, не восстанавливаются, а труп не оживляется и не сохраняется, то их условно можно
отнести к изолированным системам с возрастанием энтропии.
Если система открыта, не изолирована и извне, из агрессивной среды получает энергию ?Е в
какой-либо форме, но при этом происходит не повышение, а понижение упорядоченности, или уровня
структуры системы Устр, или уровня информации о системе (I), то энтропия опять будет возрастать,
однако не самопроизвольно, как это было в изолированной системе, а вследствие внешнего воздействия
агрессивной среды или другой системы. Поэтому нельзя смешивать эти два случая роста энтропии, так
как между ними нет ничего общего. Для второго случая роста энтропии с внешней агрессивной средой
можно записать:
(1.4)
Возрастание энтропии постоянно приводит к деградации энергии, которая последовательно
переходит из механической энергии в химическую и далее в тепловую энергию. Поэтому система,
способная производить механическую, химическую или электрическую энергию (работу), должна
рассматриваться в первую очередь как источник негэнтропии [2].
Из второго закона энергоэнтропики следует, что в состоянии полного равновесия системы с
окружающей средой энтропия системы достигает максимального значения (Э = Эмакс), после чего
система не может функционировать и развиваться и, следовательно, скорость возрастания энтропии в
этом состоянии равна нулю ?Э/t = 0. Однако могут существовать или специально создаются такие
внешние условия, при которых система не может достигнуть равновесного, одинакового с окружающей
средой состояния (например, холодильный шкаф теплоизолирует помещенные в него продукты от
среды или баллоны со сжатым газом герметизируют, чтобы он не смешивался с внешней средой).
Система приходит в состояние стационарного неравновесия тогда, когда при таких внешних условиях
возникновение энтропии имеет минимальную скорость и деградация происходит очень медленно, т.е
?Э/t = (?Э/t)МИН. Такое состояние впервые сформулировано нашим соотечественником бельгийским
ученым И. Пригожиным. Он назвал это принципом минимального возникновения энтропии. Это, по
сути, принцип максимально возможного сохранения структуры (упорядоченности) системы в
неравновесном состоянии.
Третий закон энтропийных балансов, или энергоэнтропики, называется законом уменьшения
энтропии открытых систем при прогрессивном развитии систем [2].
Энтропия открытых систем в процессе их прогрессивного развития всегда уменьшается за счет
потребления от внешних источников энергии, информации и вещества, т.е.
(1.5)
При этом любая упорядочивающая деятельность и снижение энтропии данной открытой системы
происходит за счет расхода энергии или информации, или вещества внешней системы (среды) и,
следовательно, роста энтропии внешней среды или внешней системы, которая отдала свою энергию или
информацию, или вещество данной системе [15].
Таким образом, третий закон снижения энтропии как бы противоположен второму закону
повышения энтропии, но не противоречит ему, так как последний относится к изолированным
системам, в которых изменения происходят самопроизвольно, а не к открытым системам, над которыми
производится та или иная организующая, упорядочивающая их деятельность.
Четвертый закон энергоэнтропики ? закон предельного развития материальных систем [2].
В самом деле, природные, технические и другие материальные системы при прогрессивном
развитии (совершенствовании) достигают характерного для каждой совокупности внешних и
внутренних условий предела, который можно выразить максимальным значением соответствующего
вида антиэнтропии (-?Эmax) и негэнтропии (?НЭмакс). Это значение отсчитывается от некоторого
нулевого или же максимального значения коэффициента полезного действия (КПД), или максимального
значения какого-то другого критерия эффективности развития или функционирования систем. При этом
такой критерий практически всегда можно свести к отношению полезно используемой энергии ко всей
затраченной энергии или же достигнутого роста негэнтропии, или антиэнтропии к затраченной энергии
(или негэнтропии)

Например, каждой конструкции реактивных поршневых двигателей соответствует свой предел
развития, оцениваемый совершенством конструкции через негэнтропию или КПД, или удельную
мощность.
Этот закон имеет важное значение для оценки предельных возможностей совершенствования
объектов и систем.
Пятый закон энергоэнтропики ? конкуренции, или преимущественного развития [1].
В каждом классе природных, технических, материальных систем преимущественно развиваются
те системы, которые при данной совокупности внутренних и внешних условий достигают
максимального значения негэнтропии, или максимальной энергетической эффективности (КПД,
надежности, производительности, долговечности и т.п.). Чем более совершенна система и менее дорога,
тем больше она имеет спрос. Например, тем охотнее выпускается и покупается автомобиль, чем меньше
у него расход бензина на 100 км пробега.
Для энергоэнтропики характерны следующие три класса систем: а) саморазвивающиеся; б)
несаморазвивающиеся и 3) энтропийные.
К саморазвивающимся системам относятся человеческое общество, солнечная система, галактика,
звездно-планетные системы и другие образования, воспроизводящие необходимые для своей
целостности условия и развитие которых происходит на основе внутренних противоречий [2].
К несаморазвивающимся системам относятся те системы, для развития которых необходимы
находящиеся в других системах источники энергии и негэнтропии. К ним относятся искусственные
системы, например вся техника и отдельные технические объекты.
К энтропийным, или деградационным, системам относятся, например, упавшие старые и гниющие
деревья, ржавеющие на свалках объекты, химические элементы, подвергающиеся естественному
распаду и т.д., для которых характерна возрастающая энтропия, рассеяние энергии и вещества.
Так как все процессы саморазвития протекают с рассеянием энергии и вещества, то со временем
они могут перестать быть саморазвивающимися системами и превратиться в энтропийные системы.
Из сказанного следует, что к изолированным системам условно можно отнести не только системы
не взаимодействующие с окружающей средой, но и системы, которые в этой окружающей среде не
находят условий, достаточных для саморазвития. Поэтому они изменяются в направлении возрастания
энтропии, вплоть до полной деградации и распада. Правда, теоретически можно представить и такие
изолированные системы, которые, обладая внутренним источником развития и способностью
воспроизводства, испытывают не деградацию, а, наоборот, прогресс и развитие в сторону уменьшения
энтропии и роста негэнтропии. Правда, на практике таких систем не встречается [2]. Само понятие
развития представляет сложный интегральный процесс, включающий как прогресс, так и регресс.
Энергоэнтропийная основа информации известна давно, еще до возникновения теории
информации. Поскольку информацию считают функцией состояния исследуемой системы, то
увеличение данных о системе означает уменьшение неопределенности системы. Это говорит о связи
информации с вероятностностью состояния системы, а следовательно, и с энтропией.
Если информационная энтропия есть мера недостатка информации, то негэнтропия представляет
связанную информацию. Если энтропия есть мера трудности возврата системы в первоначальное
состояние, то негэнтропия системы представляет меру трудности познания состояния системы.
Известно, что изменения, происходящие в предмете и явлениях в процессе развития, имеют две
тенденции: стремление к усложнению организации и одновременно к упрощению. Тенденция к
усложнению равновесна накоплению информации, а тенденция к упрощению означает уменьшение
информации и накопление энтропии. С другой стороны, развитие системы ? это одновременно и
усложнение и упрощение формы организации, но при этом доминирующими являются тенденции
усложнения, т.е. накопления информации и снижения энтропии, очевидно, за счет расхода энергии [2].
1.6. Снижение энтропии и процесс самоорганизации системы
Объяснить явление самоорганизации систем позволяет учет энтропийных закономерностей.
Известно, что при объединении структурных элементов появляется новое состояние, или
интегративное качество, которым не обладала совокупность элементов до их коллективного
объединения в систему. Однако четко представлять механизм возникновения этих новых коллективных,
или системных, свойств позволяет использование энтропийного подхода к системе. Синергетика по
поводу возникновения системных интегративных свойств в нелинейных системах особую роль отводит
аттракторам, которые задают самоорганизующий режим поведения систем. Синергетика (с греческого
означает "согласование, сотрудничество, кооперация, совместное действие") занимается проблемами
самоорганизации систем путем согласования структур.
Известно, что в окрестности любого аттрактора происходит сжатие фазового пространства, а
следовательно, уменьшается число микросостояний и уменьшается энтропия системы, что способствует
процессу самоорганизации системы.
Развитие общества по пути самоорганизации и упорядочения либо по пути дезорганизации и хаоса
имеет энтропийные критерии. Благодаря этим энтропийным критериям выявлен новый механизм
возникновения экологических кризисов, не учитываемый современной экологической наукой;
определены условия и пределы устойчивости экономики смешанного типы, когда рынок образуют
частный и государственный капиталы.
Любые синергетические системы ? это только открытые системы и поэтому имеют свою
"внешнюю среду", откуда черпают все необходимые компоненты для своего существования. В силу
этого какая-то часть энергии, вещества, информации этой окружающей среды ассимилируется системой
и более или менее длительно удерживается в ней в особо упорядоченном состоянии. Как правило,
система ощущает себя более энергичной, более активной в отношении среды [3].
Все синергетические системы ? это сложные открытые неравновесные самоорганизующие
системы, которые способны на внешнее воздействие отвечать самоорганизацией структур. Организация
таких структур происходит в результате появления новой локальной упорядоченности, подчиняющей
себе все другие, ранее не упорядоченные (хаотические) элементы своего уровня, с образованием в
конечном счете упорядоченных структур уже в вышележащем иерархическом уровне. Свойства этой
новой структуры не могут быть представлены как некая сумма свойств, образовавших ее элементов.
При этом ни сами элементы, ни их базовые свойства не меняются, меняется только характер проявления
этих свойств: случайный, или хаотический, сменяется коллективным, согласованным [3].
Важной особенностью синергетических систем является то, что в процессе упорядочивания
происходит резкое уменьшение системной информации за счет ее свертывания. Это понятно, так как
при описании общих или коллективных состояний (свойств) системы нет необходимости описывать
каждый элемент в отдельности, достаточно описания общих (коллективных) свойств. Свертывание
информации без снижения надежности системы является главной ценностью синергетических систем.
Свертывание информации в "коллективную" информацию является одной из основ появления
самовоспроизводящихся и саморазжимающихся синергетических систем живой природы.
Принципиально важно, что при свертывании информации запоминаются и хранятся только
жизненно важные для системы параметры. По-видимому, эволюция всех природных систем идет в
направлении увеличения иерархичности, позволяющей при переходе с уровня на уровень свертывать
информацию [3].
С точки зрения синергетики накопление знаний ? это нелинейный процесс, и система знаний
представляет сложную самоорганизующуюся систему, в которой один единственный новый факт может
вызвать значительные подвижки в привычной структуре представлений.
По-видимому, человеческое сознание также представляет собой многоуровневую
синергетическую систему, формирующуюся на основе самоорганизации механизмов отражения
(рефлексии) под влиянием так называемого коллективного генетического кода.
Возможно, принцип свертывания информации за счет иерархичности широко используется
головным мозгом при запоминании, хранении и реализации огромных и многочисленных массивов
информации. Кроме того, свернутая информация способна "отвердевать" в виде более или менее
устойчивых физических или химических структур. В качестве примера этого может служить
генетический код, "отвердевший" в виде молекул ДНК или РНК, в которых "свернута" информация о
живой системе в виде генов. Биологический код, в сущности, это "свернутая" информация о
наследственности.
Возникновение в синергетической системе упорядоченности является нелинейным результатом
кооперации и коллективного поведения элементов предыдущего уровня организации [3].
Когерентность, или согласованное упорядоченное поведение динамических элементов, тоже
является примером нелинейного поведения системы. Когерентность наблюдается во всех
синергетических системах. Например, сердце работает как целостная система, ритмично перекачивая
кровь, тогда как изолированные клетки сердца ритмично сокращаются, но каждая клетка при этом
работает в своем собственном ритме, и разброс частот между изолированными клетками может быть
очень большим, тем самым образуется частотный хаос, беспорядок. Однако как только изолированные
клетки объединяются в единый орган (сердце), все его клетки переходят на единую частоту. Какие-то
клетки с наибольшей частотой навязывают свою частоту всем другим клеткам, и получается единый
ритм сердца ? когерентность. Потеря когерентности в работе сердца называется фибрилляцией сердца,
или несогласованностью, хаосом работы отдельных клеток сердца, что является антисинергетическим
механизмом, и очень опасным.
Известно, что у каждой конкретной системы образуются только такие свойства, которые отвечают
специфике внешнего воздействия, причем степень развития этих системных свойств однозначно
определяется степенью открытости системы по этим свойствам, т.е. уровнем их потребления внешней
средой. Говоря другими словами, если взаимодействие по конкретному свойству системы с внешней
средой ослабевает, то это означает, что уменьшается степень открытости системы по этому свойству и в
системе будут преобладать процессы дезорганизации, разрушающие структуру, отвечающую за данное
свойство, причем деградация будет происходить до уровня, соответствующего новой степени
открытости, т.е. новой уменьшенной величине внешнего потребления данного свойства. Так, если для
внешнего потребителя (государства, промышленности) взаимодействие и интерес к науке и научным
исследованиям ослабли, не востребованы, это означает, что уменьшилась степень открытости системы
по свойству науки и научным результатам, в системе будут преобладать процессы деградации или
разрушения науки. Наоборот, когда интерес и взаимодействие к науке и научным результатам у
внешней среды (государства) возрастает, чтобы использовать эти результаты на практике, тогда
увеличится степень открытости (степень заинтересованности) системы по свойству науки и научным
результатам, что приведет к самоорганизации структур, усиливающим развитие науки до уровня,
соответствующего возросшей величине внешнего потребления [2, 11]. Если внешний потребитель
системы по данному свойству исчезает или вовсе отсутствует, тогда система оказывается полностью
закрытой по этому свойству, это свойство исчезнет, так как разрушится структура, порождающая это
свойство [18, 23]. Например, сегодня внешняя среда заинтересована в уничтожении терроризма,
поэтому к этому свойству система открыта и самоорганизуется (организует различные механизмы) для
уничтожения террористов. Таким образом, у системы остаются только те свойства, которые
востребованы внешней средой. Только те свойства сохраняются и развиваются, которые востребованы в
данный период природой и обществом. Когда обществом и государством будут востребованы здоровая
нация и долгожители, тогда будут развиваться здравоохранение, биоинженерия и исследования по
продлению жизни людей.
Когда обществом будут востребованы искусственные помощники, тогда будут разработаны и
созданы искусственные самоорганизующиеся системы. Однако потребность общества определяется
потребностью элиты, которая направляет общество в нужном направлении. И если элите нужны одни
свойства системы, например бизнес, а другие не нужны, например наука, соответственно и будет
развиваться система.
Изменив состав внешних потребителей, система должна перестроить структуру для удовлетворения
новых потребителей.
1.7. Накопление негэнтропии, самоорганизация и саморазвитие
Известно, что в природе и обществе действуют законы и закономерности, по которым происходит
движение и развитие объектов и процессов без какого-либо осмысленного вмешательства. Законы и
закономерности, обусловливающие самоорганизацию и саморазвитие объектов и процессов изучает
синергетика ? новое научное направление естествознания. Именно синергетика изучает нелинейные
процессы самоорганизации и саморазвития объектов и явлений. Согласно синергетике,
самоорганизация и саморазвитие происходят вследствие накопления негэнтропии. Вследствие
накопления информации и негэнтропии повышается уровень организации живой и неживой материи и
происходит самоорганизация материи.
Отметим, что любая открытая система в каком-то смысле самоорганизуется. Открытые системы в
определенной мере самоорганизуются, даже если окружающая систему среда агрессивна. Например,
если агрессивная среда отрицательно воздействует на открытую систему, то система мобилизуется для
оказания сопротивления, т.е. самоорганизуется для отражения нападения. Здесь важно, успеет ли
система самоорганизоваться для встречи и отражения нападения. Если система не успеет по времени
самоорганизоваться (мобилизоваться), тогда произойдет разрушение или деградация системы Так как
всякие открытые системы, если нет агрессивной среды, самоорганизовываются, снижая свою
энтропию. Уменьшение открытости системы по определенным параметрам означает уменьшение ее
самоорганизации и уменьшение степени снижения ее энтропии по этим параметрам.
Напомним, что при развитии систем имеют место противоположные приращения энтропии.
Энтропия по одним параметрам растет, а по другим уменьшается. Закон развития природы показывает,
что по одним параметрам или свойствам происходит упрощение системы, а по другим ? ее усложнение.
При развитии системы по одним определенным параметрам, увеличивается порядок, упорядоченность,
организованность, а по другим параметрам, наоборот, увеличивается беспорядок и
дезорганизованность системы и, следовательно, растет ее энтропия по этим параметрам. Не происходит
общий переход системы от беспорядка к порядку или по всем параметрам системы Равновесие между
беспорядком и порядком в целом по всем параметрам системы предполагает их неравенство для
отдельных частей и отдельных параметров [18].
Энтропия равна мере беспорядка (хаоса) только при постулате равновероятности событий (см. гл.
2). Что касается общего случая при неравновероятности событий, то энтропия равна сумме мер
беспорядка и порядка Современная модель равновесия рассматривает круговорот природы так, что
соотношение частей и целого описывается по правилу "золотой пропорции", обеспечивающего
наибольшую гармонию в природе.
К законам самоорганизации и саморазвития материи откосятся все основные законы физики,
химии, механики, электроники, биологии и жизни, а также возникновение человека с мыслящим
мозгом, законы мышления.
Самоорганизация и саморазвитие обусловливают снижение энтропии (Э) и возрастание
негэнтропии (НЭ). Энтропия как мера неопределенности и беспорядка любой системы, как известно,
описывается формулой Больцмана Э = kIn S, где S ? термодинамическая вероятность состояния. При
полном хаосе Э = 1, при установлении порядка Э = 0. Упрощенно Э + I = const, где I ? количество
информации.
Источником энергии для самоорганизации живых существ и их жизнедеятельности служит
энергия Солнца, которая передается на Землю световым и тепловым излучениями, где может
трансформироваться в другие виды энергии. Свойство органов человека превращать биохимическую
энергию в энергию мышления и механическую рукодельную работу обусловливает возможность
выполнения сложных видов трудовой деятельности по приобретению знаний, умений, навыков, а также
при обработке материи и создании из нее ноосферных объектов [1].
Согласно ноосферной теории познания, во Вселенной существует семь основных групп законов
[1].
• первая группа законов обусловливает развитие неживой природы,
• вторая ? управляет развитием живой природы;
• третья ? регулирует взаимодействие живой и неживой природы,
• четвертая ? обусловливает возникновение и развитие человека,
• пятая ? регулирует жизнедеятельность человека и предопределяет производство знаний,
• посредством шестой группы законов люди программируют и преобразуют, т.е. развивают,
материю на планете Земля,
• седьмая ? используется людьми для программирования и развития материи во Вселенной.
Цель ноосферного системного познания ? правильно воспринимать окружающий мир,
осмысливать наблюдения и формировать законы материального мира, мышления и духовной жизни,
научиться пользоваться этими законами в своей практической деятельности. Эффективность
ноосферного системного познания повышает использование компьютерных систем виртуальной
реальности, компьютерных моделирующих систем, искусственного интеллекта, абстрактного
мышления и электронных "мыслящих" машин и систем, основанных на знаниях. Системный метод
познания делает целесообразным создание искусственного мозга с основными функциями живого
мозга. Ноосферное мышление на основе коллективного разума ? важнейшее средство построения
малоэнтропийного мира.
1.8. Энтропия и сущность теории И. Пригожина
Выдающийся бельгийский физико-химик, лауреат Нобелевской премии Илья Пригожин является
основоположником теории неравновесных необратимых процессов в природе и обществе.
Для того чтобы дать фундаментальное обоснование природных явлений неравновесия, И.
Пригожин разработал новую теорию диссипативных (рассеиваемых, переходящих в другое состояние)
структур, и тем самым впервые доказал, что неравновесность необходимых процессов является
источником организации (или самоорганизации) и энтропии (меры беспорядка) в природе и обществе.
Таким образом, он установил фундаментальный закон, гласящий, что фауна и флора представляют
собой не что иное, как диссипативные и недиссипативные биологические структуры [25].
Для обоснования своей теории в 1947 г. И. Пригожин доказал теорему о неравновесных
процессах, в соответствии с которой установившемуся состоянию процесса соответствует минимум
энтропии. Он показал, что при внешних условиях, препятствующих равновесному состоянию, энтропия
увеличивается, а если препятствия отсутствуют ? энтропия достигает абсолютного минимума (нуля).
Указанные процессы И. Пригожин формализовал следующим образом: энтропия неравновесного
процесса, или неравновесной системы, при n независимых сил х1 , х2, ...,хn описывается выражением
[24]:

(1.7)
где Li, k ? термодинамическая величина, изменяющаяся в зависимости от условий.
Далее он доказывает, что если Xi, постоянны, то при ?Э/?dXi = 0 (i= 1 ... n) Э > min, и общий
поток энтропии будет равен тоже абсолютному минимуму


(1.8)
Полную энтропию, или функцию Пригожина, для общего случая непрерывной системы или
процесса, когда i-e силы и i-e потоки энтропии функционально зависят от определенного условия
(точки х), И. Пригожин выражает через следующий функционал:

(19)
где V ? это объем неравновесной системы; Э(х) ? базовый (единичный) локальный поток
энтропии, а Э(х) можно интегрировать квантами информации, т.е. информациями, находящимися в том
же объеме ?V, что и энтропия. Следовательно, на примере термодинамических систем доказана
важнейшая теорема полной энтропии [24]. Таким образом, И. Пригожин создал фундаментальную
теорию неравновесных структур и диссипативных процессов.
1.9. Новая энтропия А. Панченкова и принцип максимума новой энтропии в управлении
В монографии [17] предлагается парадигма, называемая автором новой энтропией.
По мнению А. Панченкова, энтропия традиционно во всех работах (зарубежных и отечественных
ученых) интерпретируется как мера отрицательного количества, как мера беспорядка, хаоса и
дезорганизации, несовершенства структуры. Введенная автором книги новая энтропия, в отличие от
традиционной, имеет принципиально другой, позитивный смысл ? как мера совершенства структуры,
мера порядка, организованности и похожа по своему содержанию на отрицательную энтропию
(антиэнтропию), или негэнтропию. Исходя из этого, предложенный принцип максимума новой
энтропии можно рассматривать как принцип максимума антиэнтропии, или негэнтропии, в
традиционном понимании энтропии.
По А. Панченкову, все процессы во Вселенной и окружающей нас действительности подчиняются
принципу максимума новой энтропии. Традиционная парадигма, основанная на втором законе
термодинамики, несостоятельна, так как XX в. ничего не дал, кроме противоречий, застоя, тупиковых
зон и "длинных дискуссий". Основной причиной краха мировоззрения XX в. является неверная
интерпретация энтропии как отрицательного количества, как меры беспорядка, хаоса, несовершенства и
дезорганизации системы.
Энтропийное мышление XX в., как известно, получило реализацию в 1) математической теории
энтропии и 2) термодинамике и статистической физике.
В основу математической теории энтропии легли классические работы К. Шеннона по теории
информации. Математическая теория энтропии пережила годы расцвета и творческого роста. Однако
поскольку теория информации и энтропия Шеннона имели ограниченную несемантическую базу вне
математики, это энтропийное мышление замкнулось само на себя и не получило ожидаемого развития
[17]. Второй вариант энтропийного мышления связан с именами Р. Клаузиуса и Л. Больцмана.
Больцмановская энтропия как атрибут статистической физики приняла облик термодинамической
энтропии, и в физических исследованиях энтропийное мышление реализовалось в контексте
термодинамической энтропии и второго закона термодинамики. В этой части успехи энтропийного
мышления оказались значительно большими, что породило энтропийную парадигму естествознания XX
в. [17].
Узость двух вариантов энтропийного мышления возникла потому, что каждый вариант
ориентировался на отдельные компоненты общей энтропии: на информационную энтропию и
термодинамическую энтропию.
В монографии [17] обосновывается целесообразность перехода от старой информационной и
термодинамической энтропийной парадигмы XX в. на новую энтропийную парадигму XXI в.,
основанную на новой энтропии и удовлетворяющую принципу максимума новой энтропии А.
Панченкова.
В предложенной концептуальной модели естествознания новая энтропия ? это первичная
самостоятельная сущность, имеющая позитивный смысл как мера совершенства, упорядоченности и
организованности, виртуальной сплошной среды и ее структуры.
Виртуальная сплошная среда наделяется свойством главным образом геометрической
упорядоченности, а мерой же упорядоченности виртуальной сплошной среды выступает энтропия,
удовлетворяющая принципу максимума энтропии Панченкова [17].
В концепции, методологии и теории фундаментальную роль играет глобальная симметрия,
определяемая законом сохранения новой энтропии Новая энтропия сохраняет постоянное значение в
виртуальной сплошной среде, удовлетворяющей принципу максимума новой энтропии Виртуальные
сплошные среды бывают двух типов: 1) диссипативная сплошная среда; 2) инерциональная сплошная
среда.
Новая энтропия имеет двойственный характер и состоит из двух компонент: структурной
энтропии и энтропии импульсов. В диссипативной (рассеянной, переходящей в другое состояние)
виртуальной среде существует пассивная компонента энтропии, входящая в состав структурной
энтропии как "замороженная" энтропия. Со своей стороны, "замороженная" энтропия в
термодинамической интерпретации это ? термодинамическая энтропия.
В основе теории оптимальности новой энтропии лежит принцип максимума новой энтропии,
которому удовлетворяет функционирование любой виртуальной сплошной среды. Принцип максимума
новой энтропии А. Панченкова считается наиболее общим среди известных в естественных науках и
согласуется с принципом Гамильтона [2]. В соответствии с [17], все принципы во Вселенной и
окружающей нас действительности подчиняются принципу максимума новой энтропии.
Новая энтропия и принцип максимума новой энтропии могут найти применение в исследовании
разнообразных технических, естественных, социальных и экологических проблем. Они уместны при
исследованиях и мониторинге биологических, социальных, технических и естественных систем; при
изучении физики живого, процессов самоорганизации, психофизики, естественных полей,
статистической механики сложных технических систем, их проектировании и т.п.
Новая энтропия и принцип максимума новой энтропии целесообразны в исследовании теории
надежности объекта или системы и мониторинга Современная теория надежности объекта ? это теория
ухудшения структуры объекта Проблема мониторинга объекта требует теорию, описывающую как
процессы ухудшения, так и улучшения его структуры. Новая энтропийная теория позволяет развивать
новую специализированную теорию надежности и мониторинга объектов, основанную на идее
упорядоченности структуры объекта.
Структурная энтропия как критерий качества объекта обладает большей общностью, чем
интенсивность отказов, с одной стороны, а с другой стороны, она поддерживается инструментальными
средствами теории энтропии Структурная энтропия является мерой совершенства системы, структуры
либо объекта. Существуют три основные причины ухудшения структуры объекта: 1) старение объекта;
2) износ объекта и 3) воздействие внешней среды. В предложенной в [17] энтропийной теории
надежности концептуальная модель приспособлена для исследования функционирования объектов с
ухудшающейся или улучшающейся структурой.
1.10. Общая энтропия как сумма термодинамической и информационной энтропий
В [9] предлагается объединение термодинамической и информационной энтропий и предлагается
новый закон общей энтропии и управления, рассматриваемый в глобальных масштабах. Если в течение
длительного времени происходит накопление информации при помощи электронных СМИ, газет,
средств связи, то происходит уменьшение общей энтропии.
Информационная энтропия имеет размерность единицы времени (секунды), а термодинамическая
энтропия ? Джоуль на Кельвин (система СИ) Возникает вопрос, можно ли их суммировать, чтобы
получить общую энтропию при наличии разной размерности, аналогично тому, как в классической
механике принято суммировать потенциальную и кинетическую энергии, также имеющие различные
размерности. По-видимому, их тоже можно суммировать, так как все зависит от нормирования
компонент пространства состояний и системы единиц, которые можно рассматривать как частный
случай такого нормирования.
Понятие нормирования процессов и объектов управления включает как нормирование в
пространстве состояний в смысле установления норм вектора, матрицы, так и нормирования
стандартов, физических свойств, показателей эффективности создаваемой системы или опытного
макета. Из этого следует, что даже в решении задач качественной иллюстрации существует множество
вариантов возможностей объединения энтропий [2, 9].
Таким образом, академик А.А. Красовский предполагает, что путем нормирования динамической
системы в пространстве состояний и в других пространствах происходит объединение
термодинамической и информационной энтропий в общую энтропию. Он утверждает, что
единственным средством предотвращения роста общей энтропии (нарастания хаоса) является
рациональное и оптимальное управление. Под рациональным и оптимальным управлением понимаются
целенаправленные действия, проводимые в интересах большинства динамических объектов управления.
Такими объектами в социально-экономической сфере являются люди. Автор полагает, что
фундаментальным законом живой природы и цивилизованного общества является изменение общей
информационной энтропии. Как и другие фундаментальные законы, он не доказывается, а открывается.
Только после накопления экспериментальных или эмпирических данных такие законы получают
признание. Сегодня имеются все условия и данные для скорого признания закона общей энтропии.
1.11. Энтропия с энергетической и управленческой позиций
Поскольку существует множество разночтений понятия энтропии, рассмотрим понимание
энтропии с энергетической позиции, когда энтропия представляет энергетическую характеристику
системы. Так, в [25] предлагается своеобразная интерпретация энтропии и антиэнтропии и анализ
природных и социальных процессов и явлений с энергетических позиций. Как в живой, так и в неживой
природе упорядочение системы происходит с затратой энергии. Затрачивая энергию, можно создать
упорядоченность, а можно создать и хаос. В [25] понятие энтропии рассматривается как понятие,
противоположное понятию энергии. Чем больше энергии в системе, тем меньше энтропия системы в
указанном понимании, и чем меньше энергия системы, тем больше энтропия системы. Энтропия по
второму закону термодинамики ? это указание на то, что в мире самопроизвольно происходит
уменьшение энергии, и поэтому самопроизвольно растет энтропия. По мнению автора работы [25],
никакой антиэнтропии и негэнтропии не существует. Самопроизвольного роста энергии нигде в макро-
мире не обнаружено. Так как энтропия есть энергетическая характеристика системы тел, то к сложности
системы энтропия не имеет никакого отношения. Поэтому утверждение, что культура является
антиэнтропийным процессом, поскольку в ней происходит усложнение, по мнению автора [25], не
верна.
Второе начало термодинамики, по мнению автора [25], применимо только в макромире, а в микро-
и мегамире оно не действует. Поскольку накопление энергии и массы у растений происходит на
атомно-молекулярном уровне через сложные превращения, то к ним приложение понятия энтропии и
антиэнтропии несостоятельно.
Из сказанного следует, что поскольку труд преобразует один вид энергии в другой, обязательно
уменьшая энергию, то труд не может увеличивать или дополнительно создавать прибыль, а, наоборот,
уменьшает прибыль [25], что, по-видимому, спорно.
С этих позиций энергия является частью материи и поэтому появившиеся в последнее время
сообщения о вечном двигателе можно понимать как возможность получения энергии из неизвестного
источника (покоя) энергии (может быть, из земного магнетизма или гравитации), учитывая при этом
закон сохранения энергии.
Отсюда автор работы [25] Г. Юрин делает ряд следующих важных мировоззренческих выводов:
1. Так как за счет труда можно лишь преобразовывать один вид энергии (вещество) в другой, то
человеческий труд только уменьшает прибыль, поскольку КПД труда меньше единицы.
2. Жизнь общества, человека, как и производство материальных благ, осуществляется только
через уменьшение и распыление энергии и материалов. В реальной жизни это воспринимается как
расход прибыли.
3. Прибыль вообще носит чисто условный характер: просто в одном месте (у природы)
уменьшается, а в другом (у человека) увеличивается. Если бы труд мог создать прибыль, то
существовал бы вечный двигатель.
4. Труд человека как биологическая энергия составляет ничтожную долю от всей произведенной
энергии, остальная часть (произведенная природой энергия) принадлежит природе или обществу.
Автор рассматривает два источника, из которых человек берет прибыль, а не создает прибыль.
Первый источник прибыли ? это накопление самой природой солнечной энергии в виде угля, нефти,
газа. Второй источник прибыли ? это накопленная растениями солнечная энергия.
Если рассматривать первый источник прибыли, полученный за счет добычи угля, нефти, газа, то,
например, на добычу угля расходуется 2% от той энергии, которую уголь содержит сам. Остальные
98%, т.е. в 49 раз больше, человек получает бесплатно. Расходуя эту даровую энергию, человек
получает прибыль, которая позволяет содержать промышленность, оборону, культуру и другие сферы
деятельности, что и обеспечивает ему жизнь. Очевидно, что если на добычу, транспортировку и
переработку угля затраты достигнут 50% от той энергии, которую содержит сам уголь, то другая
половина полученной от угля энергии пойдет на добычу новой ее порции, и поэтому прибыль исчезнет,
ей попросту неоткуда будет взяться [25]. Тогда человечеству придется искать новые более эффективные
источники энергии. Таким образом, прибыль носит объективный, материальный (энергетический), а не
социальный характер. Прибыль берется из земли и космоса (от Солнца). Человек своим трудом только
управляет природной энергией и живет за счет добытой природной энергии, а не за счет своего труда,
как учил К. Маркс [25].
В цивилизованном обществе роль труда сводится к тому, чтобы взять у природы энергию и
материал, преобразовать их с использованием природной же энергии (преобразовать энергию угля в
энергию тепла).
Кибернетика, информатика, электроника позволяют лишь уменьшить расход энергии на
добывание природной энергии и более рационально ее использовать.
Нельзя путать материальное с социальным и политическим. Если в развитых капиталистических
странах, в которых организовано качественное производство товаров и услуг, установится вместо
капитализма социализм, то жизненный уровень народа не уменьшится, так как производительные
силы останутся прежними [25]. Тезис, заметим, весьма спорный.
Главной причиной существующего уровня жизни народа, по мнению автора [25], является не то,
какой господствует общественный строй, а каковы природные условия, из которых человек черпает
прибыль, с чем также трудно согласиться. Ведь при неразумной власти и значительных природных
богатствах народ поколениями может жить бедно. Возможность повышения жизненного уровня
зависит в первую очередь от эффективного производства (Германия, Япония) и эффективности
управления.
Далее автор приводит пример Арабских эмиратов, где общественный строй крайне реакционный
и отсталый, но жизненный уровень народа очень высок. Производство не может быть буржуазным
или социалистическим, оно может быть научно обоснованным и эффективным, когда делается много,
качественно и дешево [25]. Известно изречение "нет богатых и бедных государств, а есть хорошо и
плохо управляемые государства".
1.12. Принцип компенсации энтропии
При изучении конкретной открытой системы (А1) следует учитывать все взаимодействующие с
ней другие системы (окружающую среду), условно объединенные в систему А2. При этом общая, или
объединенная, система (А3) (рис. 1.1) условно считается закрытой, или изолированной, и для системы
А3 можно применить закон возрастания энтропии ?Э3 = ?Э1 + ?Э2 ? 0.
Только в этом случае будет верным принцип компенсации энтропии, который утверждает, что
внутри изолированной системы уменьшение энтропии в одной системе (-?Э1) приводит к увеличению
на столько же (или чуть больше) энтропии в другой системе (+?Э2) или в окружающей среде. Такое
взаимодействие сохраняет общее энтропийное равновесие, т.е. реализуется принцип компенсации
энтропии.
При построении изолированной системы А3, состоящей из взаимодействующих систем А, и А2 и
обеспечивающей принцип компенсации (?Э3 = -?Э1 + ?Э2 ? 0), необходимо решить: а) какими
системами из окружающей среды можно пренебречь, чтобы добавив остальные, получить общую
закрытую систему (А3) (отметим, что этот процесс не всегда четко получается); б) как поступить, если
внешняя среда очень большая по сравнению с изучаемой, например при определении влияния
космоса на планету.
Рис. 1.1. Изолированная система А3, состоящая из двух взаимодействующих систем А1 и А2
Для решения последней задачи в [23] вводят понятие знтростата или системы
(например, космической) много более мощной, чем изучаемая система, в результате
чего становится возможным рассматривать только процессы внутри изучаемой системы, а остальными
пренебречь. Допустим, что изучаемая система (А1) взаимодействует с другой системой (А2) и вместе
они образуют полностью закрытую систему (А3). В соответствии с принципом компенсации энтропии
общая закрытая система (А3) остается в энтропийном равновесии (?Э3 ? 0), если изменение энтропии
(?Э1) в изучаемой системе (А,) будет приблизительно равно изменению энтропии (?Э2) второй системы
(А2) с противоположным знаком. Если вторая система (А2), например внешняя среда (космос),
настолько мощнее первой, что выполняется условие означающее, что изменение энтропии во второй
? ?Э1 ?
системе (?Э2) по сравнению с Э2 намного меньше, чем в первой ? ? Э ?, и поэтому этим изменением
?
? 1?
? ?Э 2 ?
? Э ? ? 0 можно пренебречь. Иначе говоря, энтропия (?Э2) практически не меняется и остается
? ?
? 2?
постоянной, и, следовательно, в ней не происходят ни процессы деградации, ни процессы
самоорганизации.
В самом деле, с одной стороны, выполняется условие компенсации энтропии ?Э1 ? -?Э2, но, с
?Э2
другой стороны, Э ? 0, и относительное изменение становится незаметным.
2
В результате с позиции мощной космической системы (А2) (энтростата) первая малая система (А1)
как бы не существует и поэтому не образует общую закрытую систему. Тогда необязательно выполнять
принцип компенсации энтропии (?Э1 = -?Э2).
Таким образом, энтростатом названа значительно более мощная, по сравнению с изучаемой,
системная среда, удовлетворяющая неравенству
?Э1 ?Э2
? ? 0.
Э1 Э2
Взаимодействие изучаемой системы с энтростатом не позволяет изменить в противоположном
направлении энтропию энтростата (как мощной окружающей среды) и выполнить принцип
компенсации энтропии.
Принцип компенсации энтропии и энтропийное равновесие, или критический уровень
организации системы, реализуются в полном объеме с введением понятия степени открытости
изучаемой системы.
Каждому стационарному значению энтропии соответствует вполне определенный уровень
порядка и беспорядка в системе, т.е. такой уровень организации системы, при котором процессы
увеличения и уменьшения энтропии компенсируют друг друга (иначе состояние не было бы
стационарным).
Степень открытости системы (а) представляет параметр, обобщающий собой величину всех
изменений, которые произошли в системе в результате ее взаимодействия с нормальной внешней
средой, или с энтростатом. Для полностью закрытой системы а = 0, а для полностью открытой системы
а = амакс. Изменение степени открытости системы происходит за счет внешнего воздействия (F). С
ослаблением внешнего воздействия уменьшается степень открытости системы и снижается критический
уровень организованности до нового уровня, что приводит к процессу дезорганизации систем до нового
уровня. С ростом внешнего воздействия (F) увеличится степень открытости системы (а), возрастет
критический уровень организованности системы (Эк) до нового более высокого уровня и,
следовательно, появится дополнительный процесс самоорганизации, или упорядочения системы, до
нового более высокого уровня критической организации системы [23].
1.13. Энтропийный подход к семантическому (содержательному) анализу научной информации
Если с помощью энтропийного подхода, по выражению К. Шеннона, информация анализируется
на синтаксическом (количественном) уровне, то с помощью того же энтропийного подхода в [7]
информация анализируется на более сложном, семантическом (содержательном) уровне.
B [7] введена семантическая мера количества информации, в отличие от более упрощенной
синтаксической меры количества информации, введенной К. Шенноном, что позволило прогнозировать
развитие научных исследований и предстоящих прорывов в научных знаниях.
Семантический анализ публикации на основе энтропийного подхода позволяет прогнозировать
скачки в развитии знания.
Энтропийный подход к информации на семантическом уровне позволяет ответить на вопрос:
каким образом согласовать вывод о возрастании со временем в закрытых (изолированных) системах
энтропии, или неопределенности и хаоса, с противоположными процессами самоорганизации и
снижения энтропии в живой природе.
В основе энтропийного анализа семантики информации лежит анализ информации через оценку
степени симметрии семантической структуры информации и особенно того фрагмента реальности,
который его описывает. Для этого семантическая структура информации "мозаично" представляется в
виде информационного фантома, состоящего из элементарных семантических единиц. Далее
сопоставляются симметричная (детерминированная) составляющая информационного фантома с
асимметричной (случайной) составляющей информационного фантома. В [7] для обоснования
аналитического энтропийного подхода к семантическому анализу информации введены три новые
понятия: информационный фантом (ИФ), элементарная семантическая единица (ЭСЕ) и квант снижения
стохастичности.
Оценка энтропии информации подразумевает установление связей между содержанием
(семантикой) научного знания и реальностью.
Оказывается, анализируя степень симметрии (асимметрии) научной информации по отношению к
реальному миру, можно выявлять и конкретизировать связи между содержанием (семантикой) научного
знания и действительностью.
Энтропийный подход к анализу научной информации досточно сложен и изложить его в данной
работе из-за ограниченного объема затруднительно, поэтому лицам, интересующимся данной
проблемой, советую обратиться к источнику [7].
Все широко известные работы по анализу и оценке информации рассматривают синтаксический, а
не семантический уровень информации, что не позволяет провести всесторонний анализ развития
научных направлений, включая прогноз возможных скачков в научных знаниях.
Переход от синтаксиса к семантике в информационном анализе позволяет снизить влияние
субъективных факторов на конечный результат анализа и использовать новые принципы организации
баз данных.
Компьютерный анализ информации на семантическом уровне является новым и пока разработан
не на количественном, а только лишь на качественном уровне или в лучшем случае эмпирически.
Семантический подход к анализу радиотехнической информации и интересные результаты,
полученные в этой области, достаточно подробно приведены в [7].
Принципы анализа научной информации на семантическом уровне требуют новой более высокой
семантической организации информационных баз данных в автоматизированных информационных
системах (АИС), автоматизированных системах переработки научной информации и управления (АСУ).
При переходе от синтаксиса к семантике возможен качественный прорыв в анализе научной
информации.
Используя энтропийный подход к оценке адекватности нечеткого знания, или когнитивной
структуры научной информации, изучаемому фрагменту действительности требуется представление
научной информации в виде совокупности элементарных семантических единиц (ЭСЕ) и их
аналитического анализа. Энтропия информации в процессе исследований по принятой теории
уменьшается и стремится к нулю и вновь возрастает при переходе к новой теории или парадигме.
Очевидно, что энтропия научной информации равна нулю только при абсолютном знании и
бесконечности ? при абсолютном незнании. Степень проработки данного научного направления можно
оценить вычисленными значениями энтропии информации, как это показано в [7].
В процессе научных исследований нечеткие знания о предмете или явлении, или когнитивной
структуре этой информации, все более адекватно начинают отражать модель изучаемого фрагмента
действительности (реального объекта) и становятся информационным фантомом (ИФ) этого фрагмента
действительности.
В [1] показано, что экономическая семантическая единица (ЭСЕ) является основной
характеристикой семантической структуры информационного массива. Важно определить взаимосвязь
семантических характеристик информационного массива и симметрии (асимметрии) этого
информационного массива с описываемым фрагментом действительности. Мерой асимметрии семанти-
ческой структуры информационного массива с описываемым фрагментом действительности является
энтропия.
На основе оценки симметрии (асимметрии) информационного массива и его энтропии в [7]
разработана методология прогноза развития научных исследований, показана возможность
синтезирования новой в семантическом плане информации за счет преднамеренного нарушения
стабильности когнитивной структуры информационного массива.
Разработка энтропийного семантического подхода к анализу научной информации, проведенная
на двух различных информационных массивах (обработка сложных сигналов в радиотехнике и
воздействие электромагнитного излучения на биологические объекты) позволили [7]:
• разработать способы анализа информационных массивов на семантическом уровне;
• на основе семантического анализа информационных массивов прогнозировать развитие
научных направлений,
• обосновать возможность синтеза новой в семантическом плане научной информации за счет
преднамеренного нарушения стабильности нечетких знаний, или когнитивной структуры
информационного массива, и последующей ее стабилизации;
• прогнозировать застой или скачки в научных направлениях и знаниях; очевидно, что без
формализации семантического анализа невозможен прогноз скачков в развитии знаний;
• исследовать семантику информации и ее взаимосвязь с материей и показать двойственность
информации как категории, а также с энтропийных позиций формировать отличие живой материи от
неживой;
• оценить возможную семантическую меру количества информации.
1.13.1. Семантическая мера количества информации и эффективности научных исследований

Энтропийная теория семантического анализа научной информации позволяет прогнозировать
появления принципиально новой информации в этой области, оценивать интенсивность развития
семантики информационных массивов и усовершенствовать принцип организации информационных
баз данных [7].
В качестве меры разнообразия истинности элементарной семантической единицы (ЭСЕ) в научной
информации выбирают энтропию [7].

(1.10)
где х ? характеристика истинности ЭСЕ в рамках данной теории или парадигмы. Понятие ЭСЕ в
научной информации аналогично системе частиц в материальном теле.
Энтропия Э(х) является мерой разнообразия, или неопределенности, случайной величины х.
Использование энтропийного подхода в целом целесообразно для моделирования при
исследовании различных проблем науки. Так, например, в теории автоматического регулирования, где
необходимо учитывать случайные возмущения, представляет интерес анализ и прогнозирование
состояния среды существования системы, мера неопределенности которой и есть энтропия.
Энтропия Э(х) после завершения того или иного этапа научных исследований, когда полученные
результаты увеличивают общее знание, уменьшается до новой реальной неопределенности (реального
незнания), определяемой условной энтропией Э(х/у). Тогда получаем выражение
(1.11)


где у ? характеристика истинности ЭСЕ уже полученных при научных исследованиях и
включенных в оборот знаний, или у ? это новая переменная, описывающая новое состояние системы,
возникающее в результате новых исследований и увеличения общего знания.
Очевидно, что условная энтропия Э(х/у) ? Э(х), так как благодаря новым исследованиям и
увеличению общего знания уменьшается неопределенность и, следовательно, энтропия.
Итак, в качестве семантической меры количества дополнительной информации (0, включенной в
оборот знаний и увеличивающей общее знание, служит степень уменьшения нашего реального
незнания в рамках анализируемой теории или парадигмы
(1. 12)
Поскольку условная энтропия Э(х/у) характеризует остаточное разнообразие, или
неопределенность, еще не включенных в оборот знаний информации в рамках данной теории, то при
исходном разнообразии Эмакс(х) и при Э(х/у) = О получим Q = Эмакс(х), и это означает, что данная теория
полностью исчерпала себя и мы в рамках данной теории все знаем о системе.
Таким образом, условная энтропия Э(х/у), связанная с получением новой дополнительной
информации, определяет семантическую меру эффективности научных исследований данного
направления, характеризующую их предельные познавательные возможности в рамках данной теории.
Минимизация Э(х/у) означает включение в структуру знаний новой информации.
Величина Q, характеризующая количество полученной дополнительной информации, включенной
в оборот знаний, является оценкой степени симметрии (асимметрии) формируемого ею
информационного фантома (ИФ) по отношению к действительности.
Для большего удобства в качестве семантической меры количества включенных в оборот знаний,
информации выбирают относительную величину g = Q/Эмaх(х), или g = 1 ? Э(х/у)/Эмакс(х).
Последнее выражение совпадает с выражением К. Шеннона для избыточности множества
сообщений [18].
? энтропия данного множества сообщений,
а Эмакс ? максимальная энтропия сообщений, Рi, ? вероятностная мера множества сообщений,
входящих в данную совокупность.
С другой стороны, смысл этих двух выражений совершенно различен. Так, при отсутствии
избыточности сообщений R = 0 и, следовательно, Э = Эмакс, сообщение полностью информативно, т е.
имеется вся информация, тогда как при g = 0 и, следовательно, Э(х/у) = Эмакс(Х), наоборот, имеется
полное отсутствие какой-либо информации по данному научному направлению, т.е. полное незнание.
Если возрастание избыточности сообщений (R) не означает увеличение его информации, то
увеличение g означает увеличение количества информации, включенной в оборот знаний.
Эти различия обусловлены тем, что в выражении К. Шеннона информация анализируется на
синтаксическом (количественном) уровне, тогда как в другом случае ? на семантическом
(содержательном) уровне. Очевидно, что чем больше наше реальное знание и меньше наше реальное
незнание в рамках данной теории, а значит, больше число истинных ЭСЕ, тем более достоверны
результаты анализа информации [7].
Еще раз подчеркнем, что семантическую меру информации, включенной в оборот знаний,
представляет энтропия истинности множества ЭСЕ, являющаяся совокупностью как попавших в оборот
знаний ЭСЕ, так и потенциально возможных в рамках данной теории В качестве семантической меры
эффективности научных исследований, характеризующей познавательные предельные возможности в
рамках данной теории, целесообразно выбирать условную энтропию Э(х1у), где х ? множество ЭСЕ в
рамках данной теории, а у ? совокупность ЭСЕ этого множества, включенных в оборот знаний.
Предложенная в работе [7] энтропийная теория семантического анализа научной информации
требует последовательного рассмотрения информационного массива и организации баз данных,
обеспечивающих как оценку интенсивности развития их семантики, так и возможность прогноза
появления принципиально новой информации.
Энтропийный анализ семантической структуры научной информации в области радиотехники и
биологии, проведенный в [7], позволил получить три новых алгоритма компенсации помех
принципиально отличающихся от известных, что соответствует синтезу новой семантической
информации. В области биологии предложены формирование и развитие информационных фантомов,
которые позволят создать чувствительные биоиндикаторы.
За счет преднамеренного нарушения стабильности информационных фантомов удается решать
задачи синтеза новой информации.
По своей сути предложенный в [7] энтропийный подход к семантическому анализу научной
информации наиболее близок к методу Дельфи, когда не требуется компромисс мнений специалистов
при оценке перспектив развития того или иного научного направления. Как и в методе Дельфи, здесь не
требуется общение специалистов друг с другом и компромисс мнений. При использовании метода
Дельфи эксперты лишь устанавливают основную причину возникающих разногласий, а в случае
энтропийного анализа АСУ исследуют базу данных, включающую публикации без опроса
специалистов. Противоречия во мнениях, полученных результатах исследований не устраняются, а
используются для оценки полноты информационного массива.
1.13.2. Единство вещества, энергии и информации
Академик А.И. Опарин, развивая взгляды Л. Больцмана и К. Тимирязева, считал основой жизни
стремление уменьшить структурную энтропию, т е. борьбу за упорядоченность.
В основе жизни лежит единство трех начал, вещества, энергии и информации. Реально существует
лишь вещество, а точнее, материя Энергия ? это уже абстракция, представляющая количественную
меру формы движения материи, совокупности протекающих в ней процессов. Информация ? это, так
сказать, вторая производная абстракции, характеризующая причинно-следственные связи, протекающие
в материи процессов, именуемые законами и закономерностями природы. А эти законы в равной мере
свойственны как живой, так и неживой природе. Именно поэтому информация как категория имеет
прямое отношение к материи [7].
Еще раз кратко изложим различие между структурной и информационной энтропией. Структурная
энтропия описывает состояние термодинамической системы. С ее помощью формируется стремление к
состоянию равновесия, которое является основой второго начала термодинамики [7]. Информационная
энтропия содержит две составляющие. 1) интегральную и 2) локальную.




Рис.1.2. Взаимосвязь структурной энтропии и локальной составляющей информационной
энтропии

Интегральная составляющая информационной энтропии (ЭИ) так же, как и структурная энтропия,
стремится к максимуму. Что касается локальной составляющей информационной энтропии, то она,
наоборот, может изменяться только в пределах от 0,38 до 0 и имеет тенденцию к уменьшению, а не к
росту Считается, что она представляет мнимую составляющую реально существующей интегральной
информационной энтропии и отражает кажущуюся для данного фрагмента материи степень его
незнания. Однако аналогично комплексным числам интегральная составляющая информационной
энтропии не может существовать без этой мнимой части, так как именно она является побудительной
причиной познания ? главного признака живого [7]. Таким образом, локальная составляющая
информационной энтропии достигает максимум 0,38, а минимум ? нуля. С другой стороны, известно,
что величина 0,38 является составляющей численного ряда, названного Леонардо да Винчи "золотым
сечением" и связанного, как известно, с гармонией систем.
Взаимосвязь структурной энтропии и локальной составляющей информационной энтропии можно
наглядно представить путем вписывания в круг правильного десятиугольника по правилам "золотого
сечения" (рис. 1.2 заимствован из [7]). На рисунке структурная энтропия представлена в виде
полусферы. Радиусу сечения полусферы плоскостью, параллельной ее основанию, соответствует
численное значение структурной энтропии, которая формально изменяется от единицы до нуля.
Область значений структурной энтропии, условием стабильности которой является наличие ИЭ,
представлена в виде конуса, описанного вокруг прямой, перпендикулярной основанию полусферы.
Вокруг этого конуса описан 10-угольный многогранник, построенный в соответствии с известными
правилами деления в крайнем и среднем отношениях [7].
Значения локальной составляющей информационной энтропии изменяются от 0,38 до нуля и
соответствуют радиусу окружности, описанной вокруг сечения многогранника плоскостью,
параллельной основанию полусферы. Начиная с некоторого значения структурной энтропии,
внутренние законы развития некоего фрагмента материи приходят в противоречие с законами развития
окружающей его среды. Следствием процесса устранения конкретных противоречий путем адаптации
данного фрагмента материи к окружающей среде является локальная составляющая ИЭ. Однако в
процессе адаптации появляются все новые и новые десятигранники локальной составляющей ИЭ,
совокупность которых дает интегральную составляющую ИЭ, реально описывающую степень
"осознания" данным фрагментом уровня незаконченности его адаптации. Поскольку полная адаптация
возможна лишь в случае увеличения уровня структурной энтропии за пороговое значение,
обусловливающее появление ИЭ, то интегральная составляющая ИЭ постоянно возрастает [7].
Иначе говоря, интегральную ИЭ образует совокупность новых многогранников локальной ИЭ,
появляющаяся в процессе адаптации фрагмента материи к окружающей среде. Поскольку полная
адаптация возможна только лишь в случае повышения уровня структурной энтропии за пороговое
значение, то интегральная ИЭ постоянно возрастает.
Таким образом, произошло "превращение" структурной энтропии в информационную, снявшее
возникшее противоречие в отношении стремления к максимуму энтропии состояния данного фрагмента
материи. Этот фрагмент материи уже при всех процессах стремится перейти в наиболее вероятностное
состояние, уменьшая локальные составляющие ИЭ, т.е. устраняя конкретные противоречия и
увеличивая тем самым интегральную составляющую ИЭ. По-видимому, в этом и состоит сущность
жизни [7].
Представляется, что жизнь как форма существования материи имеет определенный уровень
структурной энтропии, для поддержания которого необходимо увеличение энтропии семантической
составляющей результата отражения этой материей реальности [7].
В [7] показано, что причиной, порождающей появление ИЭ (т.е. жизни), является несоответствие
внутренних законов и закономерностей развития данного фрагмента материи законам окружающей его
среды.
Известно, что суммарное количество информации (I) и энтропии (Э) j-го состояния пространства
или его соответствующей области, возникающее в результате любого процесса, всегда является
постоянным, т.е
? ?

?I + ?Э = const ,
j j
j =1 j =1


где j ? одно и тоже j-е состояние (процесс), для которого замеряется и количество информации и
количество энтропии. Сам процесс сохранения информации создает равновесие электрического поля,
что, в свою очередь, способствует созданию единого информационно-сотового пространства
Вселенной.
1.14. Малоэнтропийные технологии
Кратко рассмотрим проблемы роста ОЭ и ОНЭ, связанные с выработкой необходимой для
человечества электроэнергии и безэнтропийного, или, точнее, малоэнтропийного, производства
электроэнергии.
Известно, что одной из основных целей человеческой цивилизации в условиях быстрого роста
численности населения Земли и ОЭ является повышение безопасности и жизненного уровня людей, что
требует значительного увеличения энерговооруженности и ОНЭ человечества. Однако при получении
энергии из нефти, природного газа, угля, леса и других горючих веществ выделяются СО2 и ядовитые
продукты и, следовательно, увеличивается энтропия, что резко ухудшает экологическое состояние
окружающей среды на планете в целом и меняет климат в опасном направлении. Отсутствие надежных
методов утилизации радиоактивных отходов и отсутствие систем, обеспечивающих безаварийную
работу, ограничивает применение атомных электростанций (АЭС). Гидроэлектростанции (ГЭС) с
крупными плотинами и гигантскими искусственными морями также представляют опасность при
землетрясении и других причинах прорыва дамб и быстром загрязнении рек. Вместе с тем в природе
заметно снижаются запасы естественных невозобновляемых энергоносителей с повышенной энтропией
и непрерывно увеличиваются затраты по их добыче.
Российские энергетики считают, что основным энергоисточником в XXI столетии может стать
безопасная ядерная энергия, основанная как на распаде, так и на синтезе ядра (термоядерные станции)
только в сочетании с другими энергоносителями, удобными для использования. Наши энергетики также
считают, что для обеспечения малоэнтропийности и максимальной безопасности в XXI в. следует
строить гидроэлектростанции на малых реках, создавая каскад мелких безопасных водоемов,
положительно влияющих на природу. Если террористы или диверсанты разрушат плотины таких малых
гидроэлектростанций, то это не может причинить большого ущерба, тогда как разрушение плотин
гигантских гидроэлектростанций может вызвать катастрофу. Также необходимо использовать энергию
ветра и солнца.
С другой стороны, Земля обладает огромными возможностями безэнтропийного получения
энергии из гравитационного поля, а также огромными запасами безэнтропийного или
малоэнтропийного получения энергии из земного магнетизма, или из водорода, получаемого из морской
воды и азота, составляющего 79% земной атмосферы, за счет "холодного" ядерного синтеза [6]. В
последние годы в средствах массовой информации и научной литературе стали появляться сообщения о
ядерных процессах в нормальных условиях, т.е. "холодных" ядерных реакциях.
Летом 2001 г. в прессе появилось сообщение о том, что группа волгоградских ученых сделала
революционное открытие в области получения энергии из специального минерала и земного
магнетизма. Эта технология гораздо дешевле, экологически чище и доступнее традиционных методов.
Если оправдается предложенный учеными безэнтропийный (или малоэнтропийный) способ получения
энергии из специального минерала и земного магнетизма, то это коренным образом изменит
человеческую жизнь, увеличивая негэнтропию. По сведениям "Парламентской газеты", "волгоградские
специалисты изобрели специальный генератор мощностью 3-10 кВт, представляющий
микроэлектростанцию, которая непрерывно вырабатывает электроэнергию с помощью
синтезированного минерала. Такой генератор без вращающихся частей и без подачи топлива
вырабатывает энергию, которой хватает для обеспечения электроэнергией дома или коттеджа
"бесконечно долгое время". Авторы утверждают, что чудо-генератор родился в результате
"фундаментального открытия в физике", способного произвести революцию в промышленности и
технике. По газетной информации, канадцы выделяют 168 млн. долл. для строительства двух заводов,
производящих эти чудо электростанции. Один ? в России, а второй ? в Канаде. Если верить этой
информации, то открытие волгоградских специалистов станет эпохальным. Таким образом, возможно
экологически чистое, безэнтропийное энергетическое обеспечение человечества в ближайшем будущем.
1.15. Энтропия для оценки состояния организма человека
Энтропия представляет меру вероятности пребывания системы в данном состоянии. Оказалось,
что энтропия является одним из фундаментальных свойств любых систем с вероятностным поведением,
обеспечивающим новые уровни понимания в кодировании информации, в системном анализе,
лингвистике, биологии, обработке изображений и т. п. Влияние внешней информации на систему может
быть оценено через изменение энтропии состояния системы.
При достижении системой стационарного состояния суммарное изменение энтропии можно
считать приблизительно равным нулю, что соответствует взаимной компенсации всех процессов,
связанных с поступлением, удалением и превращением вещества, энергии и информации.
Нобелевский лауреат И. Пригожин сформулировал основное свойство стационарного состояния
открытых систем при фиксированных внешних параметрах скорость воспроизведения энтропии,
обусловленная протеканием необратимых процессов, постоянна во времени и минимальная по величине
dЭ/dt > min.
Таким образом, согласно теореме И. Пригожина, стационарное состояние характеризуется
минимальным рассеянием энтропии. Для живых систем это положение можно сформулировать так:
поддержание гомеостазиса требует минимального потребления энергии, т.е. здоровый организм
стремится работать в самом экономном энергетическом режиме. Что касается заболеваний организма,
то оно связано с дополнительными энергетическими затратами для компенсации приобретенных или
врожденных биологических дефектов и с ростом энтропии.
В динамической системе может быть несколько стационарных состояний, отличающихся уровнем
воспроизведения энтропии dЭk/dt [10]. С этой точки зрения состояние организма может быть описано в
виде набора энергетических уровней, некоторые из которых устойчивы (уровни 1 и 4), другие
нестабильные (уровни 2, 3, 5). При наличии постоянно действующего внешнего или внутреннего
возмущения может происходить скачкообразный переход из одного состояния в другое. Любое
восполнение характеризуется увеличенным потреблением энергии: температура тела повышается,
увеличивается скорость обменных процессов. Отклонение от стационарного состояния с
минимальными энергозатратами вызывает развитие внутренних процессов, стремящихся вернуть
систему обратно, к уровню 1. При длительных действиях факторов система может перейти к уровню 3,
в так называемую точку бифуркации, из которой возможно несколько исходов: возвращение на
стабильный уровень 1, переход в другое устойчивое равновесное состояние 4, характеризующееся
новым энергоинформационным уровнем, или скачок на более высокий, нестабильный уровень 5 [10].
Для организма это соответствует нескольким адаптационным уровням относительно здоровья или
хронического заболевания с разными уровнями функционирования системы. Острое заболевание
соответствует нестационарному состоянию с повышенным воспроизведением энтропии, т.е.
неэкономному типу функционирования организма. Согласно математической теории катастроф, при
острых заболеваниях необходимо скачком перевести организм из "плохого" устойчивого состояния в
"хорошее". При этом используют большие дозы лекарственных препаратов. В фазе затухающего
обострения болезней возрастает роль малых воздействий, например акупунктуры и гомеопатических
средств, оказывающих положительное воздействие [10].
Мультистабильность сложных нелинейных систем, какой является организм человека,
вероятностная природа его постоянного развития и самоорганизация приводят к необходимости поиска
"системообразующих факторов", к которым относится и энтропия.
Как показано в [10], энтропия является информативной характеристикой состояния организма и
может использоваться для оценки его состояния и определения направления терапии больных. В [10]
предложен метод вычисления энтропии газоразрядной визуализации (ГРВ) биологических объектов и
соответствующее программное обеспечение.
1.16. Некоторые примеры энтропийных моделей и энтропийных расчетов при управлении бизнес-
процессами
1.16.1. Расчет величины энтропии для контроля и управления проектом модернизации завода
Энтропийные модели и энтропийные расчеты, кроме задач термодинамики и статистической
физики, начинают практически применяться в информатике, в экономике, в управлении проектами и в
организационных структурах и т.д.
Так, например, в [19] показано, что методика контроля проекта на основе расчета величин
энтропии применялась при управлении проектом модернизации нефтеперерабатывающего завода
(НПЗ). В этой работе доказано, что во многих случаях предполагаемая энтропийная модель дает
лучший результат, чем классическая методика анализа риска Монте-Карло. С учетом фактора
энтропийного риска и баланса управляемости решена задача формирования сбытовой сети. С помощью
параметра энтропии удается оценить количество усилий менеджера по принятию решений,
требующихся для преодоления неопределенности.
В [19] сформулировано следующее правило: если существует множество возможных результатов
и менеджер не принял никакого решения, то с подавляющей вероятностью произойдет худшее из
возможных событий.
Также предложена энтропийная модель для управления риском в сложных проектах и т.п.
Определено количество информации в проекте
I p = ?? ? ( p )1n? ( p ),
которое совпадает с энтропией Э множества G. Эта величина определяет количество информации,
с которой приходится сталкиваться менеджеру в процессе управления проектом. Величина ?(p) ?
вероятностная мера в пространстве состояний проекта.
Использование указанной формулы для определения количества информации в проекте (Iр) в
задачах управления риском в сложных проектах и определения энтропии осуществляют по следующему
алгоритму.
На первом шаге рассматривают планирование проекта в классическом представлении (PERT, WBS
и т.д.). При этом энтропия (Э) проекта является суммой (ЭID) каждой работы, где ID ? идентификатор
работы, т.е.
Э = ? Э ID .
ID
На втором шаге для вычисления энтропии ЭID работы определяют множество неблагоприятных
событий. На рис. 1.3 показан пример расписания работы с указанием следующих параметров: ранний
финиш (ЕЕ), поздний финиш (LE) и худший возможный финиш [EF + (du ? d)] в случае неопределенной
длительности di<d< du, где d ? длительность, a du ? максимальная возможная длительность.
Неблагоприятные события происходят, когда работа попадает на критический путь с отрицательным.
резервом времени. Заштрихованный отрезок Еи = [LF, EF+(du-d)] представляет множество
неблагоприятных событий.
На третьем шаге множество неблагоприятных событий Еи в случае отрицательного резерва
времени определяется как а) Еи = 0, если неопределенность отсутствует, b) Еи = [LF, EF + (du ? d)] если
LF > EF > + (di ? d), с) Еи = [EF + (di ? d), EF+ (du + d)], если LF <EF + (di ? d). Тем не менее менеджер
перед анализом риска должен сжать расписание, чтобы появился положительный резерв времени.
На четвертом шаге множество неблагоприятных событий Еи разбивается по времени на множество
элементарных событий, последовательно идущих через выбранный интервал времени ?t, т.е. надо
сначала выбрать этот интервал времени ?t, чтобы по нему разбить множество неблагоприятных событий
Еи на элементарные состояния (события) (рис 1.3).
На пятом шаге оценивается возможный диапазон распределения длительности работы di < d < du.
В простейшем случае длительность ?t равномерно распределена в интервале (di, du). Вероятность Рi,
того, что длительность работы принимает значение (di, di + ?t) равно Рi = ?t(du - di), и энтропия работы
определяется согласно формуле
I p = ?? ? ( P)1n? ( P ).




Рис 1.3. Пример расписания работы с указанием раннего финиша (EF), позднего финиша (LE) и
худшего возможного финиша [EF + (du ? d)]
На шестом шаге определяется индивидуальная энтропия:
(1.13)


где Рi ? вероятностная мера работы для принятия i-го состояния по данному параметру, а формула
для полной энтропии расписания проекта, являющаяся суммой индивидуальных энтропий, имеет вид:
Э? = ? ЭID = ? Eu /(d u ? d i ) ? 1nP = ? Eu /(d u ? d i )1nP, (1.14)
ID ID ID

где множество неблагоприятных событий (Еu) равно
Еи = [EF + (du ? d) ? LF] = [(du ? d) ?TF],TF = LF?EF ? полный резерв.
На седьмом шаге по вышеприведенной формуле (1.14) может быть рассчитан шанс,
противоположный риску, при условии, что множество неблагоприятных событий Еи заменяется
множеством благоприятных событий Ef (лучший возможный финиш, поздний финиш), т е. те события,
которые дают работе положительный запас времени и выводят работу с критического пути. Для
определения множества благоприятных событий необходимо использовать критический индекс работы
CRIT (вероятность работы попасть на критический путь).
На восьмом шаге аналогично можно вычислить энтропию других компонентов проекта, таких как
стоимость, качество, спецификация.
При планировании проекта необходимо достичь баланса между риском и шансом. Энтропия, или
мощность рисковых событий Эрс = InWPC, может оказаться достаточно большой, что еще не означает,
что проект плохо спланирован. В указанном выражении W ? количество индивидуальных независимых
состояний проекта, которые несут риск, a PC ? индекс рисковых состояний. Если энтропия, или
мощность множества благоприятных событий ЭБС = InWБС, окажется больше рисковых событий ЭБС >
ЭPC, тогда позитивные события будут происходить чаще, и менеджер имеет шанс завершить проект
вовремя.
В [19] показано, что в качестве оценки энтропии проекта снизу можно использовать вычисленную
суммарную энтропию, т.е. Э? ? Эменеджер проекта (Iр), так как показано, что Ip(G) ? Э? ? IP(Eu), где G ?
множество допустимых состояний проекта.
Такая модель была применена для контроля и управления проектом реконструкции
нефтеперерабатывающего завода. Проект содержал источники риска и неопределенности, которые
были проанализированы с помощью метода Монте-Карло и энтропийной моделью. Вероятную дату
завершения проекта метод Монте-Карло предложил за 14 месяцев, а энтропийная модель ? не ранее чем
через 16 месяцев. На самом деле, проект был фактически завершен только за 20 месяцев. Анализ
показал, что при соблюдении процедуры выравнивания энтропии дата завершения проекта оказалась бы
много ближе к результатам энтропийной модели.
В [19] определены понятия точности ведения бизнеса как дисперсии возможной ошибки ?,
непрерывности системы управления и баланса управляемости. Получена функциональная зависимость
энтропии и производной энтропии по времени (сложность бизнеса) от требуемой точности ведения
бизнеса:
Э (? ) ? ?1n? и Эt1 [? (Rмакс )]
где Rmax ? максимально допустимая величина риска, а ? ? дисперсия возможной ошибки ?.
В [19] сформулирован критерий степени "энтропийного" риска для системы в виде
Ф ?Ф
К= i ,
Фi
где Ф ? функция полезности, а Фi ? функция полезности от индекса доходности при условии чисто
"экономического" расчета, исходя из факторов прибыли, риска и задержки платежей.
1.16.2. Энтропия компании и проблемы управления
Энтропия как мера информации, необходимой для работы и управления компанией, используется
в ситуациях с неопределенностью.
С помощью параметра энтропии в данной работе оценивается количество управленческих усилий
менеджера или руководителя, необходимых для выбора рационального решения и преодоления
неопределенности в конкретном бизнесе или в конкретном проекте. Очевидно, что чем меньше
энтропия, или неопределенность, в бизнесе или в проекте, тем меньше усилий нужно затратить
менеджеру на выбор решения. Из возможных альтернативных решений для менеджера выбор
правильного решения тем сложнее, чем больше энтропия и, следовательно, неопределенность процесса.
Энтропия конкретного проекта или бизнеса показывает величину необходимой информации для
принятия решения. Что касается суммарной энтропии, она определяет совокупность возможных
состояний, в которые может попасть компания. Если руководство компании или менеджер не
принимает вовремя управленческое решение по важным проектам, то энтропия и, следовательно,
беспорядок в компании возрастает.
В общем виде понятие суммарной энтропии (Э?) какой-нибудь компании является количественной
мерой беспорядка, или неопределенности, бизнес-процессов в компании и показывает, какое
количество информации требуется руководству (менеджеру) для описания бизнес-процесса компании в
конкретный момент времени [20].
Величина энтропии каждого конкретного проекта показывает, какое количество информации
требуется для того, чтобы можно было работать в ситуации с неопределенностью процесса или ее
вероятностью. Другими словами, энтропия показывает требуемую мощность системы принятия
управленческих решений для выбора рациональных решений из возможных альтернатив на протяжении
всего цикла реализации проекта.
Для определенного момента времени весь бизнес В компании является объединением его меньших
частей бизнес-процессов bi, т.е. В = {bi} или В = ubi . Для каждого отдельного бизнес-процесса или
проекта bi в компании существует множество ожидаемых возможных исходов (результатов). Например,
если рассматривать только время (t) и стоимость (C), то по каждому бизнес-проекту можно представить
картину (рис. 1.4), где ?j = (Cjtj). Вероятность Р каждого результата будет P(?j), причем
? P(? j ) = 1.
j

Информация, которая требуется руководству для описания у-го проекта, определяется как
энтропия j-ro бизнес-проекта

(1.15)
где P(?ij) представляет вероятность (?ij), результата каждого бизнес-проекта.
Информация, описывающая весь бизнес-процесс в компании, выражается как суммарная энтропия

Такое выражение для энтропии суммарного процесса пригодно, когда проекты независимы. Если
проекты взаимозависимы, надо использовать условную вероятность P(?ij/?ке) которая определяет
вероятность результата проекта bi, при условии, что проект bк имеет результат ?е, тогда для проекта bi
зависящего от результата проекта bк, имеем

(1.16)
Очевидно, что для упрощения расчетов энтропии необходимо максимально "развязать" проекты и
сделать их максимально независимыми [19].
На рис. 1.5 показан пример взаимозависимости результатов проектов № 3 в виде графа.




Рис 1.5. Граф взаимодействия результатов для проекта №3
Понятно, что суммарная – энтропия, или «еопределенность, компании Э? уменьшается, если:
• компания получает дополнительную информацию о бизнес-процессах или проектах;
• неопределенность результатов конкретных проектов уменьшается, и проекты становятся более
определенными;
• определенный проект bi, завершен, и компания знает результат ?ij в этом конкретном случае.
Запуск компанией каждого нового проекта bк с различными возможными результатами ?kj
увеличивает общую неопределенность (энтропию) компании и сложность текущего процесса принятия
решения. Энтропия компании также увеличивается, если появляются дополнительные требования
заказчика или изменяются условия и потребности на рынке, что увеличивает неопределенность в
принятии решения. Базовые знания менеджера определяют его способность обрабатывать информацию
и принимать управленческие решения, учитывая, что информация также, как энтропия, связана с
неопределенностью, случайностью, альтернативными решениями и результатами. Рассмотрим
ситуацию, при которой весь бизнес компании состоит из некоторого набора бизнес-проектов, но
некоторые бизнес-проекты ? это сложные проекты, а некоторые ? относительно простые. Поэтому весь
бизнес в компании является объединением его меньших частей ? бизнес-процессов bi, т.е. В = {bi}, или
В = ubi. Для отдельного бизнес-процесса или проекта bi в компании существует множество ожидаемых
возможных исходов (результатов): ? = {?i} [20].
В [20] сформулирована следующая лемма: если за период времени Т, больший или равный
минимальному времени t0 (для бизнес-процесса или проекта Т ? t0), не происходит принятие и
реализация управленческих решений, то приращение энтропии за этот период будет положительным
?ЭT > 0, и компания переходит к более неопределенному состоянию. Эта лемма соответствует второму
закону термодинамики и говорит о том, что любая система, в том числе и компания, при отсутствии
управления в среднем переходит к более неопределенному (хаотическому) состоянию и энтропия
возрастает.
Если менеджер принимает управленческое решение, он совершает при этом некоторую работу. А
по уменьшению неопределенности состояния конкретного бизнес-проекта или компании в целом. В
этом случае уравнение, описывающее баланс энтропии (Э), информации (I) и усилий (работы)
менеджера по принятию решений (А), выглядит как
?Э + ?I + ?А = 0. (1.17)
Очевидно, что если руководство компании совершает положительную работу ?А > 0 по принятию
решений, то неопределенность (энтропия) системы уменьшается.
Если ?I = IВХ ? IВыХ > 0 (рис. 1.6), то система получает дополнительную информацию,
неопределенность и энтропия системы уменьшается (?Э < 0). Если же ?I = IВХ ? Iвых < 0, то ?Э > 0, т.е.
энтропия системы и неопределенность системы возрастают.
На рис. 1.7 приведена энтропийная кривая, когда руководство компании за рассматриваемый
промежуток времени не принимает никаких решений, и поэтому в среднем энтропия компании, а
значит, неопределенность ситуации возрастают (?Э > 0). Правда, в изменении кривой наблюдается
небольшой участок, когда неопределенность, компании самопроизвольно уменьшается (?Э < 0).
Можно утверждать, что любая компания (система) при отсутствии управления в среднем
переходит к более хаотичному, или неопределенному, состоянию и поэтому энтропия возрастает.
На рис. 1.8 приведена кривая изменения энтропии со временем, где в течение отрезков ?t1, ?t2, ?t3
руководство компании принимает решения и за счет этого активно воздействует на бизнес-процесс ?А1,
?А2, ?А3, вследствие чего энтропия на этих участках времени снижается, и скорость снижения
энтропии (Э') определяет эффективность управления бизнес-процессом.
Таким образом, с помощью параметра энтропии можно оценить количество управленческих
усилий менеджера или руководителя компании, требующихся для выбора решений по преодолению
неопределенности в конкретном проекте или бизнесе-процессе. Чем меньше энтропия, тем меньше
усилий на выбор рациональных решений придется затратить менеджеру. Если энтропия больше, тогда
менеджер должен принимать большее количество решений по выбору правильного решения из
возможных альтернатив. Величина энтропии показывает количество требующейся информации в
каждом конкретном проекте или бизнес-процессе. Энтропия компании показывает набор возможных
состояний, в которые она может попасть.
В компании происходят процессы, часто напоминающие второе начало термодинамики, когда
происходит рост энтропии и беспорядка, когда руководство или менеджер компании не уделяют
должного внимания бизнесу и не вовремя принимается решение, состояние компании, как правило,
хаотизируется. Главная сложность для принятия рациональных решений руководством компании
связана с недостатком нужной и правдивой информации.
Как показано в [20], сложность бизнеса определяется энтропией (Э), на величину которой
существенное влияние оказывает способ разбиения множества возможных результатов ? = {?i} на
элементарные релевантные события ?i. Кроме того, суммарная энтропия бизнеса зависит от четкости и
точности ведения бизнеса о зависимость энтропии и сложности бизнеса от точности ведения бизнеса (?)
имеет вид
Э(?)˜-1n ? (1.18)
Из указанного выражения следует, что, как правило, с повышением требований к точности
ведения бизнеса растет сложность системы.




Рис. 1.6. Изменение энтропии в зависимости от полезной информации




Рис. 1.7. Типовая кривая поведения энтропии бизнес процесса компании когда руководство
компании не принимает никаких решений




Рис 1.8. Поведение энтропии, когда руководство компании принимает решения и активно
воздействует на бизнес процесс

<<

стр. 2
(всего 12)

СОДЕРЖАНИЕ

>>