ЭНТРОПИЙНО-ИНФОРМАЦИОННЫЙ АНАЛИЗ ИЕРАРХИЧЕСКИХ СТРУКТУР - Студенческий научный форум

VI Международная студенческая научная конференция Студенческий научный форум - 2014

ЭНТРОПИЙНО-ИНФОРМАЦИОННЫЙ АНАЛИЗ ИЕРАРХИЧЕСКИХ СТРУКТУР

Мазиёва К.В. 1, Шурыгина Е.Г. 2, Кажикенова С.Ш. 2
1Карагандинский Государственный Университет имени академика Е. А. Букетова
2Карагагдинский Государственный Университет имени академика Е.А. Букетова
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информации. Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области физики и биологии позволили выявить универсальные меры, предложенные К.Шенноном, позволяющие установить взаимосвязь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия “информация” как меры структурной упорядоченности самых разнообразных по своей природе систем.

Использование меры количества информации позволяет анализировать общие механизмы информационно-энтропийных взаимодействий, лежащих в основе всех самопроизвольно протекающих в окружающем мире процессов накопления информации, которые приводят к самоорганизации структуры систем.

Проводимые современной наукой исследования свойств информационных систем дают все основания утверждать, что все системы могут формироваться только согласно спускаемым с верхних иерархических уровней правилами, причем сами эти правила существовали раньше самих систем в форме изначального плана (идеи творения) [1].

Иерархические структуры широко применяются при построении систем передачи и обработки информации, например, при построении опорных сетей телекоммуникационных систем, многоуровневых автоматизированных систем управления и корпоративных вычислительных сетей различного назначения.

Популярность иерархических структур обусловлена простотой технической реализации и управления потоками данных, имеющимся опытом практического применения и большим количеством практических приложений.

При формировании и анализе иерархической структуры для системы с большим количеством элементов и жесткими информационными связями между элементами, возникает задача выделения уровней, группировки элементов по уровням и установления связей. Даная задача должна решаться при выполнении ограничений, связанных с принадлежностью элементов к заданным группам (кластеризация), с возможностью минимизации транзитных потоков данных и выполнения требований по допустимой загрузке каналов связи и коммуникационного оборудования. Известные методы кластерного анализа ориентированы, в основном, на проведение разбиений множества элементов по признаку их близости друг к другу с учетом заданных критериев близости. Эти методы часто мало пригодны для решения специфических задач структурного синтеза систем передачи и обработки информации, не учитывают ограничений, связанных с параметрами аппаратуры и каналов связи, возможности связи кластеров между собой.

Все это требует разработки новых методов и математических моделей, позволяющих решать задачи реальной размерности и вычислять требуемые характеристики иерархических многоуровневых систем передачи и обработки информации в зависимости от их структуры.

Поскольку число подобных систем постоянно возрастает, увеличиваются их размерность и сложность реализуемых алгоритмов обработки информации, тематика диссертации, посвященная разработке методов анализа иерархических систем передачи и обработки информации, актуальна и имеет важное практическое значение.

Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии -ого порядка) встречаются очень редко, то неопределённость уменьшается еще сильнее [2].

Для иллюстрации понятия информационной энтропии можно также прибегнуть к примеру из области термодинамической энтропии, получившему название демона Максвелла. Концепции информации и энтропии имеют глубокие связи друг с другом, но, несмотря на это, разработка теорий в статистической механике и теории информации заняла много лет, чтобы сделать их соответствующими друг другу [3].

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Иерархический принцип организации структуры возможен только в многоуровневых системах (это большой класс современных технических систем) и заключается в упорядочении взаимодействий между уровнями в порядке от высшего к нижнему. Каждый уровень выступает как управляющий по отношению ко всем нижележащим и как управляемый, подчиненный, по отношению к вышележащему. Каждый уровень специализируется также на выполнении определенной функции (ГПФ уровня). Абсолютно жестких иерархий не бывает, часть систем нижних уровней обладает меньшей или большей автономией по отношению к вышележащим уровням. В пределах уровня отношения элементов равны между собой, взаимно дополняют друг друга, им присущи черты самоорганизации (закладываются при формировании структуры)[4].

Возникновение и развитие иерархических структур не случайно, так как это единственный путь увеличения эффективности, надежности и устойчивости в системах средней и высокой сложности.

В простых системах иерархия не требуется, так как взаимодействие осуществляется по непосредственным связям между элементами. В сложных системах непосредственные взаимодействия между всеми элементами невозможны (требуется слишком много связей), поэтому непосредственные контакты сохраняются лишь между элементами одного уровня, а связи между уровнями резко сокращаются.

Основные свойства иерархических систем.

1. Двойственность качеств элементов в системе - элемент одновременно обладает индивидуальными и системными качествами.

Это свойство иерархических систем является причиной распространенного вида психинерции изобретателя: он видит одно (главное, системное) свойство элемента и не видит множества его прежних индивидуальных свойств.

2. Диктат верхних уровней над нижними - основной порядок иерархии (аналог в обществе: единоначалие, авторитарное руководство).

3. Нечувствительность верхних этажей к изменениям на нижних и наоборот, чувствительность нижних к изменениям на верхних. Изменения на уровнях веществ и подсистем низшего ранга не отражаются на системном свойстве (качестве) ТС-НС высших рангов.

4. Отфильтровывание (выделение) полезных функций на уровнях иерархии. Правильно организованная иерархическая структура выделяет на каждом этаже полезную функцию, эти функции складываются (взаимоусиливаются) на следующем этаже; при этом вредные функции на каждом этаже подавляются или, по крайней мере, к ним не добавляются новые [5].

Чем выше уровень иерархии, тем мягче структура, менее жесткие связи между элементами, легче переставлять их и заменять. На нижних уровнях более жесткая иерархия и связи.

Метод анализа иерархий (МАИ) является систематической процедурой для иерархического представления элементов, определяющих суть проблемы. Метод состоит в декомпозиции проблемы на все более простые составляющие части и дальнейшей обработке последовательности суждений лица, принимающего решения, по парным сравнениям. В результате может быть выражена относительная степень (интенсивность) взаимодействия элементов в иерархии. Эти суждения затем выражаются численно. МАИ включает в себя процедуры синтеза множественных суждений, получения приоритетности критериев и нахождения альтернативных решений. Такой подход к решению проблемы выбора исходит из естественной способности людей думать логически и творчески, определять события и устанавливать отношения между ними [6].

МАИ может успешно использоваться для решения простых задач, однако его эффективность проявляется при поиске решения сложных проблем, требующих системного подхода и привлечения большого числа экспертов.

Возникновение теории информации тесно связано с именем К. Шеннона, предложившего решение основной проблемы о нахождении скорости передачи информации, которую можно достичь при оптимальном методе кодирования и декодирования так, чтобы вероятность ошибки при передаче информации была как угодно мала. Теорию кодирования отличает то, что наряду со статистическими методами она использует для построения конкретных кодов глубокие алгебраические и комбинаторные идеи [7].

Важнейшим шагом на пути постижения энтропийно-информационных закономерностей следует считать введение количественной меры информации. Понятие количества информации находит многочисленные важные приложения и в других разделах информационной теории, хотя далеко не все попытки его приложения адекватны существу рассматриваемых проблем. Фундаментальным результатом теории информации является утверждение о том, что в определенных, весьма широких, условиях можно пренебречь качественными особенностями информации и выразить ее количество числом. Теория информации тесно связана с естественными и прикладными дисциплинами, с ее помощью были исследованы различные области применения: статистический анализ, обработка информации, информатика, кибернетика, криптография, а также нейробиология, теплофизика, квантовые исчисления, искусственный интеллект, выявление плагиата и другие формы анализа данных. Активно разрабатываются теория семантической информации, которая решает проблемы количественной оценки информации с учетом ее смысла, теория прагматической информации с учетом ее ценности [8, 9].

Базисным понятием всей теории информации является понятие энтропии. Различие форм энтропии и информации часто закрепляется в виде специальных отраслей общей теории.

Энтропия характеризует свойства макроскопической системы в условиях покоя или равновесия применительно к обратимым процессам. Распространение концепции Клаузиуса на необратимые процессы привело к заключению, что в необратимых взаимодействиях, которые свойственны макросистемам, энтропия возрастает. Понятие энтропии, первоначально введенное этим ученым в 19в. лишь с целью более удобного описания работы тепловых двигателей, усилиями многих ученых стало играть универсальную роль, определяя многие закономерности в поведении макроскопических систем.

Важнейшим шагом на пути постижения природы и механизмов энтропийно-информационных закономерностей следует введение количественной меры информации. В 30-х годах прошлого века энтропия стала мерой вероятности информационных систем и явилась основой теории информации. В своей работе К. Шеннон [10] ввел понятие энтропии в качестве меры неопределенности знания о чем-либо, а сообщение как средство увеличения знания. Соответственно этим понятиям сообщение, переданное по каналу связи, уменьшает первоначальную энтропию, а шум в канале увеличивает энтропию сообщения. Отсюда родилось понятие информации как меры уменьшения энтропии, которая первоначально предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области естественнонаучных дисциплин позволили установить универсальные меры, предложенные К.Шенноном, позволяющие определить взаимное соответствие между количеством информации и физической энтропией и, в конечном счете, определить сущность новой научной интерпретации понятия «информация» как меры структурной упорядоченности самых разнообразных по своей природе систем [10].

Понятие энтропии расширилось в работе [11] до понимания ее как меры дезорганизации систем любой природы. Автор работы отмечает, что эта мера простирается от максимальной энтропии , то есть хаоса, полной неопределенности, до исчезновения энтропии , соответствующего наивысшему уровню организации, порядка. Понятие меры организованности рассмотрено в работе [12], причем автор связывает эту меру со стадией развития и оценивает ее негэнтропией. Трудности на этом пути значительны, однако актуальность анализа энтропийно-информационных закономерностей позволяет, с точки зрения авторов работ [13, 14], поставить решение этой проблемы перед исследователями как первоочередную. Естественно, трудности возникают и в связи с так называемым порогом различимости. Любые материальные системы содержат бесконечное количество разнообразия, хотя на том или ином уровне оно конечно. Например [14], на уровне элементарных частиц – одно разнообразие, на уровне атомов – другое, на уровне молекул – третье и т. д.

Естествознание второй половины ХХ в. и новая его ветвь – синергетика, установившая (1975г.) универсальность явления самоорганизации систем, ее распространение и на неорганическую природу [15, 16] доказали наличие негэнтропийных процессов и в неживой природе. Работы И. Пригожина [17, 18] по теории необратимых процессов в открытых неравновесных системах были удостоены Нобелевской премии. В его работах, в отличие от работ [19, 20], акцент делается не на процессах управления и обмена информацией, не на функционировании системы, а на ее структуре, на принципах построения организации, на условиях ее возникновения, развития и самоусложнения.

Синергетика исследует особые состояния сложных систем в области неустойчивого равновесия, а именно динамику их самоорганизации вблизи точек бифуркации, когда даже малое взаимодействие может привести к непредсказуемому, быстрому развитию процесса. Смысл, заключенный в понятие «хаос» создателями синергетики [21], существенно отличается от общепринятого понимания хаоса как максимума энтропии. В синергетике хаос больше ассоциируется с понятием случайности, с хаотическим разнообразием флуктуаций в сложной системе, хаотическими отклонениями каких-то параметров от нормы [22]. Причем в определенных условиях даже незначительное отклонение, малое воздействие какого-то параметра может стать существенным для макропроцесса, в результате чего может развиться новая организация. Таким образом, без неустойчивости невозможно развитие, утверждают синергетики, развитие происходит через неустойчивость, через бифуркации, через случайность [23].

Современные научные теории [22, 23] формулируют представления о границах устойчивости любых сложных систем и предполагают, что для любых систем благоприятнее, когда есть некоторые отклонения параметров от нормы, благодаря чему система включается в работу и находится в состоянии не статического, а динамического равновесия. Как известно, в устойчивых системах отклонения бывают достаточно малыми, что обеспечивается обратной связью и управляющим звеном, стремящимся уменьшить возникшее отклонение, свести его к нулю [23, с.36]. Если же в системе заторможены, или игнорируются, или прерваны обратные связи, или в управляющем звене возникают сбои, то отклонение, нарастая без помех, может быстро достичь критического значения и превысить его. Тогда управляющее звено уже не сможет вернуть систему в прежнее устойчивое состояние, следовательно, количественный рост отклонения приводит к новому качеству, к новой ситуации, когда приходится не управлять, а исправлять. Наступает разрыв непрерывности, требуется применение внешних сил, дополнительных средств и времени для выправления положения [23, с.37].

Для информационного анализа сложных иерархических систем количественные оценки ценности информации могут производиться только после предварительной договоренности о том, что в каждом конкретном случае имеет для рассматриваемых процессов ценность. Алгоритмы вычисления информационной емкости системы, предложенные Шенноном, позволяют выявить соотношение количества детерминированной информации и количества стохастической информации (которую нельзя заранее предугадать), а тем самым дать качественную и количественную оценку синергетического совершенства.

При общей характеристике энтропийно-информационного анализа любых объектов широко используется статистическая формула Шеннона для выражения неопределенности любой системы [24]:

, (1)

где pi – вероятность обнаружения какого-либо однородного элемента системы в их множестве N; , .

Применение формулы (1) для характеристики неопределенности сложных иерархических систем представляет сложность ввиду необходимости учета всех без исключения элементов системы, поэтому при анализе ключевых технологических операций обычно ограничиваются только качественной оценкой неопределенности по явному ее убыванию, но без количественного выражения.

Мы рассмотрим применение данной формулы для количественной оценки сложных иерархических систем через неопределенность главного элемента системы. В качестве вероятности обнаружения главного элемента сложных иерархических систем можно принять его содержание в продукте, выраженное в долях единицы. Например, это содержание извлекаемого химического элемента в продуктах технологического передела. Также за вероятность обнаружения можно взять содержание годной фракции (окатышей, брикетов) в соответствующем продукте. То же самое относится и к процессу извлечения элемента в тот или иной продукт, так как в этом случае показатель извлечения тождествен вероятности перехода данного элемента из одного состояния системы в другое состояние. Для оценки качества продукта или технологических переделов могут быть в равной степени использованы оба этих показателя – содержание и извлечение. Таким образом, количество информации будет служить и количественной мерой определенности технологического процесса.

До опубликования созданной К.Шенноном теории Р.Хартли предложил определять максимальное количество информации по формуле [25]:

, бит/элемент, (2)

где – количество информации;

– число элементов системы.

Собственной информацией назовем вещественную функцию операций обнаружения или извлечения элементов, зависящую только от вероятностей операций и удовлетворяющую следующим условиям:

1. Собственная информация – неотрицательная функция:

.

2. Собственная информация – монотонная функция:

.

3. Собственная информация – аддитивная функция:

.

Выразим количество информации или неопределенности через известные функции. Поскольку информация должна зависеть только от вероятности процессов, нам надо найти на отрезке функцию с вещественными значениями, которая будет удовлетворять условиям 1-3. Легко видеть, что если монотонно убывает на отрезке и , то условия 1,2 выполнены. Остается найти условие на , обеспечивающее выполнение условия 3.

Пусть имеется два независимых технологических процесса и .

Тогда из условия аддитивности 3 следует:

,

и поскольку по теореме умножения вероятностей независимых событий выполняется равенство:

,

условие 3 равносильно выполнению соотношения:

.

Таким образом, функция должна удовлетворять функциональному уравнению:

.

То, что монотонные решения полученного уравнения исчерпываются кратными натурального логарифма - это классический результат. Поэтому мы должны взять , где . Эта функция обращается в нуль при для любого значения константы. Но является монотонно убывающей лишь при отрицательных значениях . Итак, если мы определим соотношением:

,

то функция , заданная равенством , обладает всеми свойствами неопределенности. Более того, это единственная функция, удовлетворяющая свойствам 1-3.

Теорема 1. Пусть собственная информация элементов сложных иерархических систем, состоящей из элементов, равна:

. (3)

Тогда информационная энтропия данного дискретного множества определяется равенством:

, (4)

где pi – вероятность обнаружения какого-либо однородного элемента системы в их множестве , , .

Смысл теоремы 1 состоит в обосновании взаимосвязи множества обратных величин через средневзвешенное значение , которое тождественно равно информационной энтропии Шеннона.

Как известно, случайной величиной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперед неизвестное и зависящее только от случайных причин, которые заранее не могут быть учтены [26]. Из данного определения можно заключить о целесообразности принять собственную информацию элементов системы за дискретную случайную величину (величину, принимающую отдельные, изолированные возможные значения с определенными вероятностями), а ее среднее значение, или математическое ожидание, за информационную энтропию [27]. Для множества элементов , принимающих конечное число значений:

, (5)

, (6)

собственная информация определяется равенством [28]:

.

Собственную информацию можно понимать как «меру неожиданности» события – чем меньше вероятность события, тем больше информации оно содержит [28,29]. Следуя определению собственной информации, как статистической функции дискретной случайной величины, составим закон распределения [30] случайной величины с конечным числом значений , . Этот закон представляется таблицей 1.

Таблица 1 – Закон распределения случайной величины

         

 
         

 

Теорема 2. Если множество дискретных вероятностных распределений имеет элементов, то информационная энтропия конечного дискретного вероятностного распределения удовлетворяет условию:

.

Более того, тогда и только тогда, когда дискретное множество содержит элемент вероятности единица, и тогда и только тогда, когда дискретное множество имеет равномерное распределение, то есть ,

Отсутствие указания на основание логарифма подчеркивает принципиальную возможность выражения этой функции с каким бы то ни было основанием. Смысл теоремы 2 сводится к тому, что информационная энтропия альтернативного выбора из двух равновероятных возможностей равна в случае использования двоичного логарифма одному биту на элемент:

бит/элемент.

Эта единица будет впервые использована для оценки технологической неопределенности и завершенности как идеальных, так и реальных схем.

Следствие 1 Информационная энтропия альтернативного выбора из двух равновероятных возможностей равна:

. (7)

Таким образом, информационная энтропия системы есть сумма с противоположным знаком всех произведений относительных частот появления элемента, умноженных на их же двоичные логарифмы. Основание логарифма «2» выбрано только для удобства работы с информацией, представленной в двоичной форме.

Информационная энтропия обладает свойствами:

Информационная энтропия – неотрицательная функция:

.

Информационная энтропия – симметричная функция:

. (8)

Информационная энтропия – аддитивная функция, то есть, если и независимы, то:

. (9)

Информационная энтропия – ограниченная функция, то есть если все элементы из множества равновероятны, то информационная энтропия достигает максимального значения, причем возрастает с возрастанием :

. (10)

В теоретических исследованиях часто вместо дискретного множества элементов используется непрерывное множество. Пусть непрерывная случайная величина задана плотностью распределения . Допустим, что все возможные значения принадлежат интервалу .

Следствие 2 Энтропия непрерывного множества элементов вычисляется по формуле:

, (11)

где - плотность распределения величины , представляющей непрерывное множество одномерного пространства событий.

Для энтропийно-информационного анализа сложных иерархических систем необходимо выбрать единую меру статистических и детерминистических начал в любом целом. Наиболее полно эта мера выражается в информации, которая может быть выражена в различных отношениях: свободная и связанная, субъективная и объективная, реальная и потенциальная и т.д. [31]. Столь же правомерно использование энтропии как меры неупорядоченности, которая также охватывает весь спектр состояний системы, включая полную упорядоченность. Информация, как мера определенности, отражает функцию структурного начала в системе, а энтропия, как мера неопределенности, ее бесструктурного дополнения [32].

Теорема 3. Если , – значения информации , энтропии , отнесенные к максимальному значению энтропии по Хартли, и на основании закона сохранения суммы информации и энтропии выполнено условие:

, (12)

то относительное значение степени детерминации есть решение уравнения:

, (13)

где - номер уровня организации технологической системы.

В работах [33,34] показано, что на основании закона сохранения максимума энтропии выполняется равенство:

(14)

где – информация;

– энтропия;

– максимальная информационная емкость системы.

По условию теоремы имеем:

,

где – относительное значение информации , или так называемая мера определенности;

– относительное значение энтропии , или так называемая мера неопределенности.

Так как их гармония возможна тогда и только тогда, когда пропорциональны их относительные изменения, то данная зависимость приводит к обыкновенному дифференциальному уравнению с разделяющимися переменными, решение которого приведено в приложении В.

Задача нахождения корней уравнения (13) решается в два этапа.

На первом этапе изучается расположение корней и проводится их разделение, то есть выделяются области, содержащие только один корень. Кроме того, изучается вопрос о кратности корней. Тем самым находятся некоторые начальные приближения для корней уравнения (13).

На втором этапе, используя заданное начальное приближение, строится итерационный процесс, позволяющий уточнить значение отыскиваемого корня. Численные методы решения нелинейных уравнений являются, как правило, итерационными методами, которые предполагают задание достаточно близких к искомому решению начальных данных. Прежде чем переходить к решению уравнения (13), запишем его в виде [35]:

, (15)

и отметим два простых приема отделения действительных корней уравнения (15).

Предположим, что функция определена и непрерывна на отрезке . Первый прием состоит в том, что вычисляется таблица значений функции в заданных точках . Если обнаружится, что при некотором числа , имеют разные знаки, то это будет означать, что на интервале уравнение (15) имеет по крайней мере один действительный корень. Затем можно разбить интервал на более мелкие интервалы и с помощью аналогичной процедуры уточнить расположение корня.

Более регулярным способом отделения действительных корней является метод бисекции или деления пополам [36]. Предположим, что внутри отрезка расположен лишь один корень уравнения (15). Тогда и имеют различные знаки.

Пусть для определенности , . Положим и вычислим . Если , то искомый корень находится на интервале , если же , то . Далее, из двух интервалов и , выбираем тот, на границах которого функция имеет различные знаки, находим точку и повторяем указанный процесс.

В результате получаем последовательность интервалов, содержащих искомый корень , причем длина каждого последующего интервала вдвое меньше, чем предыдущего.

Процесс заканчивается, когда длина вновь полученного интервала станет меньше заданного числа . И в качестве корня приближенно принимается середина этого интервала. Заметим, что если на интервале имеется несколько корней, то указанный процесс сойдется к одному из корней, но заранее неизвестно к какому именно.

Можно использовать прием выделения корней, а именно, если корень кратности найден, то рассматривается функция:

и для нее повторяется процесс нахождения корня.

Для нахождения решений уравнения (15) рассмотрим метод простой итерации [37]. Для этого заменим уравнение (15) эквивалентным уравнением:

. (16)

Итерации в данном случае образуются с заданным начальным приближением по правилу:

, (17)

где

Для сходимости большое значение имеет выбор функции . Ее можно задавать различными способами.

Пусть функция имеет вид:

, (18)

причем функция не меняет знака на том отрезке, где отыскивается корень.

Теорема 4. Для того, чтобы уравнение (16) имело единственное решение на отрезке , необходимо выполнение условий:

1 Липшиц-непрерывности [38] функции с постоянной в области :

, (19)

где , – отрезок, длины с серединой в точке .

2 Удовлетворение неравенству:

. (20)

Причем, решение разностной задачи стремится к решению исходной задачи [39] со скоростью:

.

Мы установили, что рассмотренный итерационный метод удовлетворяет всем требованиям, предъявляемым к численным методам для нахождения корней алгебраических многочленов [40,41].

Самоорганизующиеся иерархические системы относятся к классу многоуровневых и многоцелевых систем. Использование меры определенности и неопределенности информации позволяет анализировать общие механизмы энтропийно-информационных закономерностей сложных иерархических систем, являющихся фундаментальной основой всех самопроизвольно протекающих процессов накопления информации, приводящих к самоорганизации технологических систем. Поэтому очень важно найти адекватные математические модели оптимального решения и постановки задач для анализа сложных иерархических систем с единой количественной оценкой их технологического совершенства.

Математическое описание процесса развития любой системы, а значит и технологической, задается формулой [42, с.114]:

, (21)

где - масса сложных иерархических систем;

- число каких-либо элементов сложных иерархических систем.

Положительная вторая производная свидетельствует об ускоренном развитии системы, суть которого состоит в том, что при переходе на более высокий структурный уровень технологического процесса вступает в действие закон или принцип прогрессивного увеличения разнообразия.

В математическом понимании принцип увеличения разнообразия состоит в том, что с переходом на более высокие структурные уровни число элементов, образующих данный структурный уровень, имеющий различные признаки, увеличивается по закону [43, с.201]:

, (22)

где n – порядковый номер, рассматриваемого уровня, ;

– число элементов n – го уровня сложных иерархических систем;

– длина кода элементов на каждом уровне иерархической системы;

– число элементов уровня сложных иерархических систем, принятого за начало отсчета n=0.

Более строго этот принцип выразится следующим образом:

. (23)

Пусть – число элементов n – го уровня иерархической системы, . – есть емкость информации нулевого уровня. Тогда емкость информации n– го уровня в расчете на один элемент выражается формулой:

, (24)

где k – длина кода элементов на каждом уровне иерархической системы.

На основании свойств логарифмической функции нами получено [44]:

. (25)

Непосредственная математическая взаимосвязь между этими двумя подходами к выявлению оптимальных соотношений стохастической и детерминированной составляющих отсутствует. Если в первом из них устанавливается динамика системы неравенствами (21), то во втором на основе уравнения (13) – статика системы. Причем, если динамика относится к накоплению информации в пределах данного уровня в сравнении с предыдущим, то статика описывает систему на некотором заданном уровне. В связи с этим поставим задачу получения статических решений из динамических условий (21). В этом случае для механического роста накопления информации должны выполняться условия теоремы 5.

Теорема 5. Для получения статических решений из динамических условий необходимо выполнение следующих условий:

, (26)

, (27)

где - масса сложных иерархических систем;

- число элементов сложных иерархических систем.

Рассмотрим развитие сложных иерархических систем поэтапно, начиная с нулевого уровня.

Введем обозначение – скорость накопления информации на нулевом уровне, тогда на основании теоремы 5:

. (28)

При переходе на первый уровень сложных иерархических систем должен произойти скачок по условию (21). Накопление информации в пределах этого уровня должно подчиняться условию механического роста, иначе не будет объективной необходимости перехода на следующий уровень сложных иерархических систем. Следовательно, рост информации на первом уровне выражается формулой:

, (29)

где - скорость накопления информации на первом уровне,

- число элементов сложных иерархических систем.

Используя метод математической индукции, можно определить условия роста информации на любом уровне сложных иерархических систем.

Следствие Рост информации на любом уровне иерархической системы подчиняется следующим условиям:

, (30)

где - скорость накопления информации на n – ом уровне,

– число уровней сложных иерархических систем,

- число элементов сложных иерархических систем.

В рассматриваемой нами иерархической системе смежные уровни отличаются по темпу накопления информации на один порядок производной.

Теорема 6. Пусть накопление информации на каждом уровне сложных иерархических систем происходит без замедления (ускорения), то есть выражается равенством:

. (31)

Тогда общий темп накопления информации на каждом уровне определяется формулой:

, (32)

а общее количество информации есть сумма информаций, присущих каждому уровню сложных иерархических систем:

, (33)

где - скорость накопления информации, постоянная на всех уровнях,

– число уровней сложных иерархических систем,

- число элементов сложных иерархических систем.

Возьмем интеграл от обеих частей равенства (31) и, учитывая, что скорость накопления информации на каждом уровне сложных иерархических систем положительна, получим:

. (34)

Таким образом, на каждом уровне есть величина постоянная и не зависит от

(, ), что позволяет рассмотреть уравнение (31) как обыкновенное дифференциальное уравнение.

Решение полученного дифференциального уравнения (34) будем искать в виде ряда по степеням [45, 46]. Нами установлено (приложение Е), что сумма конечного числа членов этого ряда будет приближенно равняться искомому частному решению [30] дифференциального уравнения (31).

Оценим остаточный член ряда Маклорена для функции [47]. Каково бы ни было , остаточный член удовлетворяет условию:

при .

Действительно, так как , то величина при фиксированном ограничена. Докажем, что каково бы ни было фиксированное число , будет выполнено условие:

при . (35)

Имеем по свойствам степенной функции и факториала:

. (36)

Если - фиксированное число, то найдется такое положительное число , что будет выполнено неравенство:

. (37)

Введем обозначение , тогда так как удовлетворяет неравенству , можем написать для ,…:

(38)

так как:

. (39)

Величина постоянная, то есть не зависит от , а величина при . Поэтому справедливо:

. (40)

Следовательно:

при .

Отсюда следует, что при любом , взяв достаточное число членов, мы можем вычислить величину с любой степенью точности.

Таким образом, функция имеет предел, характер зависимости этого предела от экспоненциальный.

Отмеченные особенности выражений (32) и (33) относятся к общим свойствам иерархических систем при условии равной скорости накопления информации на каждом уровне сложных иерархических систем.

Для многоуровневой иерархической системы важным является описание нижестоящего уровня как взаимодействие взаимосвязанных подсистем, каждая из которых обладает своими информационными свойствами. Поэтому при получении информационной оценки совершенства основное внимание обращено на внутриуровневые и межуровневые взаимодействия системы.

Рассмотренный подход, на наш взгляд, полностью соответствует основным требованиям системного энтропийно-информационного анализа, так как обеспечивает при моделировании иерархической системы целостность ее рассмотрения за счет общетеоретических и методических концепций, позволяющих целиком удерживать в поле зрения всю систему в целом для решения задачи на всех уровнях. Кроме того, на основе учета основных элементов в системе и связей между ними обеспечивается полнота и всесторонность рассмотрения. Предложенный алгоритм упрощения при моделировании позволяет адекватно отразить реальный процесс и учесть определяющие факторы в иерархической системе.

Теорема 7. Информационная емкость сложных иерархических систем зависит от информационных свойств системы на различных уровнях, принципа развития системы и определяется формулой:

, (41)

. (42)

Под подразумевается максимальное приращение информации.

Доказательство зависимости информационной емкости технологической системы от ее информационных свойств основано на том, что максимальное приращение информации технологической системы распределяется между детерминированной и стохастической составляющими таким образом, что выполнено равенство:

,

Теорема 8. Информационная емкость сложных иерархических систем (41) и n – ого уровня (42) определяются равенствами:

, бит/эл. (43)

, бит/эл. (44)

где – максимально возможная энтропия системы.

Смысл доказанной нами теоремы 8 заключается в том, что информационную емкость системы можно определить по условию возрастания скорости накопления информации по мере перехода с одного уровня организации на другой строго на один порядок производной информации по числу исходных элементов системы.

Согласно закону сохранения, количество детерминированной информации рассчитывается как разность между максимально возможной энтропией системы и некоторым текущим значением энтропии . Тогда [48]:

, бит/эл. (45)

Из формулы (44) следует, что информационная емкость любого уровня технологической системы, за исключением нулевого, всегда меньше максимально возможного и не может превзойти некоторое определенное для каждого уровня значение.

Теорема 9. Информационная емкость сложных иерархических систем определяется по ее стохастической части:

, бит/эл. (46)

Очевидно, систему в целом должны характеризовать суммарные значения стохастической , детерминированной и максимальной информаций.

Для расчета системной и уровневой стохастических составляющих из условия на основании теоремы 8 применимы формулы (43), (44). Таким образом:

, бит/эл. (47)

, бит/эл. (48)

На основании равенства (45) с учетом и (47), (48) получим соотношения для определения уровневой и системной детерминированных составляющих:

, бит/эл. (49)

, бит/эл. (50)

Максимальная информация n – ого уровня с учетом формул (2) и (23) определяется следующим образом:

, бит/эл. (51)

Суммарное значение максимальной информации определим по формуле:

, бит/эл. (52)

На основании свойств аддитивности энтропии и информации и закона сохранения имеем:

(53)

, бит/эл. (54)

Для сравнения с реальными показателями по степени детерминации сложных иерархических систем через содержание или извлечение необходимо перейти от размерной информационной энтропии в бит/элемент к безразмерной, относительной, то есть деленной на максимальное значение энтропии. Для нахождения безразмерной степени детерминации идеальной или абстрактной схемы выразим ее как [49]:

, (55)

где – системная детерминированная составляющая,

– системная максимальная информация.

Степень неустранимой стохастичности сложных иерархических систем выразим, используя теорему сложения вероятностей двух противоположных событий:

, (56)

где – системная стохастическая составляющая,

– системная максимальная информация.

Для предельных характеристик сложных иерархических систем степень детерминации равна коэффициенту избыточности , используемого в теории информации;- максимально возможная энтропия системы, - энтропия системы в рассматриваемый момент.

Для предельных характеристик сложных иерархических систем отношение равно коэффициенту стохастичности , используемого в теории информации; - реализованная информация, - энтропия системы в рассматриваемый момент, - коэффициент избыточности.

Величина, равная , дает более наглядное представление о возможностях непредсказуемого развития технологической системы, поэтому по аналогии с коэффициентом стохастичности ее можно назвать коэффициентом детерминированности.

С целью получения аналитической зависимости максимума стохастической информации от общих условий формирования сложных иерархических систем из формулы (48) выведем методом математической индукции рекуррентную формулу для нахождения .

Для этого определим стохастическую составляющую информации системы на нулевом уровне организации, то есть при :

.

Далее определим стохастическую оставляющую информации системы на первом уровне организации :

.

Для уровня получим:

.

Следовательно, методом математической индукции установлено, что на - ом уровне иерархической системы стохастическая составляющая имеет вид:

. (57)

Из равенства в области максимума необходимое условие существования максимума выражается зависимостью:

. (58)

Нами получено уравнение с двумя взаимосвязанными переменными.

Для установления функциональной зависимости от уровня организации сложных иерархических систем, а именно , следует проанализировать поведение при различных ситуациях [43,с. 227].

1. Пусть . В этом случае представляет геометрическую прогрессию со знаменателем . Подстановка равенства в формулу (58) дает возможность оценить функциональную зависимость:

.

В полученной зависимости , как и , есть дискретная и положительная величина. Поэтому это равенство имеет смысл лишь при выполнении условия . Если , то максимум достигается при , то есть недостижим. Если выполнено условие , он будет зафиксирован на первом же уровне технологической схемы.

2. Пусть . Функциональная зависимость выразится степенным уравнением вида:

,

которое в общем случае имеет корней, значит, составляющая должна иметь экстремумов. В простейшем случае степенное уравнение представляет собой квадратное уравнение и его решениями будут , . Первый максимум должен находиться между и , а второй в области отрицательных значений .

3. Пусть . Эта арифметическая прогрессия с разностью не дает решения, поскольку условие равенства предыдущего и последующего членов не может быть соблюдено за исключением . Но в этом случае должна соблюдаться и неизменность информационной емкости сложных иерархических систем на всех уровнях при значении .

Таким образом, только при отсутствии функциональной зависимости , то есть при , мы получаем необходимое и достаточное условие существования максимума в области :

. (59)

Данному условию соответствуют выражения для количества собственных элементов:

. (60)

При подстановке равенства (60) в (47) – (52) получим формулы для определения всех видов информации иерархической системы:

, бит/эл. (61)

, бит/эл. (62)

, бит/эл. (63)

, бит/эл. (64)

, бит/эл. (65)

, бит/эл. (66)

Из формул для детерминированной составляющей и максимальной информации сложных иерархических систем следует, что они не имеют конечных пределов при и являются неограниченными функциями. Относительно стохастической части информации (61), мы имеем сходящийся по признаку Даламбера числовой ряд. Для доказательства сходимости ряда составим предел отношения члена к – му члену ряда:

.

Отсюда следует, что стохастическая составляющая информации при самоорганизации иерархических систем ограничена.

Из доказательства теорем 5, 6, 7 следует, что наиболее тонкие изменения общей информационной емкости системы связаны со стохастической частью. И хотя ограничения по абсолютной величине детерминированной информации отсутствуют, тем не менее, системная детерминированная составляющая по величине никогда не достигнет , отличаясь от нее на величину системной стохастической составляющей .

Поэтому граничными условиями для будут [80]:

.

Отметим, что заданное постоянство скорости механического роста для каждого уровня иерархической системы, которое обеспечило возможность интегрирования уравнения (31), является не общим случаем, а некоторым предельным случаем – развитием без замедления, хотя уменьшение по вполне допустимо согласно следствию теоремы 5:

, (67)

где – скорость накопления информации на n – ом уровне,

– число уровней сложных иерархических систем,

– число элементов сложных иерархических систем.

Кроме того, полученное в приложении, выражение для определения с учетом равенства принимает следующий вид:

.

При исследовании на экстремум стохастической информации мы показали, что более предпочтительна независимость длины кода уровневого элемента от номера уровня, вследствие чего число элементов уровня равно . Следовательно, справедливо соотношение:

. (68)

Так как при функция и , то заключаем, что между этими крайними значениями располагается максимум и условие (67) выполняется только справа от максимума. Постоянство кода для каждого уровня иерархической системы не исключает зависимости от , так как самоорганизация системы может происходить при любом фиксированном с соответствующим ему значением .

В самом деле, если задаться некоторой постоянной длиной кода элементов для всех случаев, то может оказаться, что базовое число элементов будет меньше длины кода, что противоречит условию. Отсюда следует, что необходимо выполнение условия пропорциональной зависимости между этими величинами, удовлетворяющее нулевому значению длины кода при нулевом числе базовых элементов:

,

подстановка которого в (68) дает следующую формулу для определения :

. (69)

Для определения максимума функции (69) вычислим первую производную по и приравняем ее нулю:

,

.

Следовательно, интервал справа от максимума должен удовлетворять условию , при котором первое целочисленное значение .

Из формул (68) и (69) заключаем, что допущение о постоянстве вполне обоснованно, так как скорость механического роста (69) иерархической системы медленнее стремится к нулю по сравнению с (68) при фиксированном значении .

Таким образом, доказанные в данном разделе теоремы показывают неразрывную связь детерминированной и стохастической составляющих, из которых первая является доминирующей и обеспечивающей устойчивость, а вторая определяет наиболее тонкие изменения и оптимальную информационную емкость сложных иерархических систем. В связи с этим заключаем, что энтропийно-информационный подход к изучению сложных иерархических систем является объективно необходимым.

В основу энтропийно-информационного анализа сложных иерархических систем положен предложенный К.Шенноном метод исчислений количества стохастической (непредсказуемой) и детерминированной (предсказуемой) информации. Предложенный Шенноном метод исчисления количества информации и энтропии оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений [24].

Детальное применение этой формулы (1) для характеристики неопределенности сложных иерархических систем представляет сложность ввиду необходимости учета всех без исключения элементов системы, поэтому при анализе ключевых технологических операций обычно ограничиваются только качественной оценкой неопределенности по явному ее убыванию, но без количественного выражения.

Если – вероятность обнаружения в продукте контролируемого элемента, то неожиданность или неопределенность этого обнаружения равна обратной величине от его определенной идентификации, то есть . Тогда, если может изменяться от нуля до единицы (от полного отсутствия до идеально полного обнаружения), то будет изменяться от бесконечности до единицы [50]:

, .

Бесконечность характеризует неограниченную неопределенность при полном отсутствии элемента в системе. Но равенство неопределенности единице при 100 %-ном содержании элемента в чистом продукте (абсолютно без примесей) или при полном его переходе из одного состояния в другое не может быть характеристикой неопределенности такого продукта, так как она должна абсолютно отсутствовать, то есть быть равной нулю. Шенноном при выводе базовой формулы (1) был предложен простой математический выход из данного парадокса для оценки неожиданности достоверного события – рассмотреть логарифмическую функцию от переменной .

В этом случае, так как логарифмическая функция является непрерывной и возрастающей функцией, бесконечность остается бесконечностью, а логарифм единицы дает нуль:

, .

В нашем упрощенном варианте оценки неопределенности поведения только одного элемента сложных иерархических систем эта неопределенность выразится формулой, предложенной нами в работе [51]:

. (70)

Для конкретного численного выражения степени детерминации и стохастичности рассмотрим формулу Р.Хартли, которая применительно к уровневой имеет вид:

, (71)

где n – порядковый номер, рассматриваемого уровня, ;

k – длина кода элементов на каждом уровне иерархической системы;

– число элементов уровня сложных иерархических систем, принятого за начало отсчета n=0.

Рассмотрим схему с длиной кода , то есть в данном случае это выборка из множества элементов – элемент и не элемент, содержащихся в продукте. Смысл этого ограничения сводится к тому, что детерминация системы в первом приближении оценивается по одному какому-то элементу, главному и целевому, а остальные принимаются в каждом переделе как единый остаток, то есть не элемент. Нами установлено, что в этом случае формулу Хартли (71) можно записать в виде равенства [52]:

.

На основании формулы (71) вычислим максимальную информацию на начальных 16-ти уровнях при :

. (72)

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

Принципиально важным преимуществом информационной оценки сложных иерархических систем является то, что предлагаемый показатель , как и любые энтропийно-информационные величины, можно суммировать, тем самым отображая всю систему по этому показателю [52, 53]. Данное свойство аддитивности имманентно присуще энтропии и информации и является основой для выражения закона сохранения их суммы.

Следовательно, неопределенность различных операций можно выразить системным показателем неопределенности:

бит/эл., (73)

или для начальных 16-ти уровней:

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

бит/эл.

Из формул для детерминированной и максимальной информации на основании доказанных нами теорем 7, 8 следует, что детерминированная составляющая информации определяется равенством [54]:

бит/эл.,

бит/эл., (74)

откуда для начальных 16-ти уровней получим:

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.

Стохастическую составляющую информации сложных иерархических систем, используя теорему 9 и формулу (48), на каждом уровне определим следующим образом:

бит/эл., (75)

тогда для начальных 16-ти уровней имеем:

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

с дальнейшим уменьшением , так как:

.

Системная детерминированная составляющая информации на основании формулы (50) равна:

бит/эл.,

бит/эл., (76)

следовательно, для начальных 16-ти уровней:

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.,

бит/эл.

Определив степени детерминации и неустранимой стохастичности на каждом уровне иерархической системы по формулам [43, с. 224]:

, ,

для начальных 16-ти уровней:

,

вычислим их системные значения на основании формул (55) и (56) для этих начальных 16-ти уровней:

,

,

Результаты проведенных расчетов представлены в таблице 2. В данной таблице приведены значения максимальных информаций, значения детерминированных составляющих информаций, их системные значения, рассчитанные на каждый уровень идеальной технологической схемы, а также уровневая и системная степени детерминации. При детерминация отсутствует, и вся информационная емкость системы относится к стохастической части.

Соответственно этому на основании формул (55), (56) вычислим , , . При возникшая уровневая детерминация равна 0,5 и достигает суммарного предела 33,33%, чему соответствует , , . На уровне детерминация системы равна 0,8333 и достигает суммарного предела 61,9%, , , .

Таблица 2 – Расчетные оптимальные энтропийно-информационные характеристики в идеальной иерархической системе для случая ,

 

бит/эл.

бит/эл.

 

бит/эл.

бит/эл.

 
             

0

0

1,0

0

0

1,0

0

1

1,0000

2,0

0,5000

1,0000

3,0

0,3333

2

3,3333

4,0

0,8333

4,3333

7,0

0,6190

3

7,6667

8,0

0,9583

12,0000

15,0

0,8000

4

15,8667

16,0

0,9917

27,8667

31,0

0,8989

5

31,9556

32,0

0,9986

59,8222

63,0

0,9496

6

63,9873

64,0

0,9998

123,8095

127,0

0,9749

7

127,9968

128,0

1,0

251,8063

255,0

0,9875

8

255,9993

256,0

1,0

507,8056

511,0

0,9937

9

511,9999

512,0

1,0

1019,8055

1023,0

0,9969

10

1024,0000

1024,0

1,0

2043,8055

2047,0

0,9984

11

2048,0000

2048,0

1,0

4091,8055

4095,0

0,9992

12

4096,0000

4096,0

1,0

8187,8055

8191,0

0,9996

13

8192,0000

8192,0

1,0

16379,8055

16383,0

0,9998

14

16384,0000

16384,0

1,0

32763,8055

32767,0

0,9999

15

32768,0000

32768,0

1,0

65531,8055

65535,0

1,0

16

65536,0000

65536,0

1,0

131067,8055

131071,0

1,0

Нами установлено отличие системных данных от уровневых, которые могут быть подсчитаны подстановкой в формулы для не интегральных, а чисто уровневых значений , и [55]. При этом интегральные величины детерминации меньше дифференцированных по уровням за счет включения в расчет информации предыдущих уровней, отличающихся большей стохастичностью.

По данным таблицы 2 степень детерминации на седьмом уровне , степень неустранимой стохастичности равна . Следует отметить, значения в таблице взяты в приближении до четвертого знака после запятой.

Сопоставим расчетные данные предлагаемой модели, рассчитанные по формулам (61) – (66), с расчетными данными теоремы 3 (то есть гармонизированными по соразмерности) и представим сравнительные показатели по степени детерминации иерархической системы в таблице 3.

Таблица 3 – Сравнение расчетных степеней детерминации и стохастичности по теореме 3 (по гармонизированной модели) и по предлагаемой модели

           

0

0

1

0

1

0

1

0,5000

0,5000

0,5000

0,5000

0,3333

2

0,6180

0,3820

0,8333

0,1667

0,6190

3

0,6823

0,3177

0,9583

0,0417

0,8000

4

0,7245

0,2755

0,9917

0,0083

0,8989

5

0,7549

0,2451

0,9986

0,0014

0,9496

6

0,7781

0,2219

0,9998

0,0002

0,9749

7

0,7965

0,2035

1,0

0

0,9875

8

0,8111

0,1889

1,0

0

0,9937

9

0,8245

0,1755

1,0

0

0,9969

10

0,8354

0,1646

1,0

0

0,9984

11

0,8446

0,1554

1,0

0

0,9992

12

0,8528

0,1472

1,0

0

0,9996

13

0,8599

0,1401

1,0

0

0,9998

14

0,8662

0,1338

1,0

0

0,9999

15

0,8722

0,1278

1,0

0

1,0

16

0,8774

0,1226

1,0

0

1,0

Мы видим, что при переходе на более высокий структурный уровень вступает в действие закон или принцип прогрессивного увеличения разнообразия. Так как распределение вероятностей по этим уровням не влияет на качество продукции, то при расчетах достаточно ограничиться только междууровневыми корреляциями.

Различие гармонизированной, дифференцированной и интегральной моделей проиллюстрируем графически в координатах уровень организации – степень детерминации в соответствии с рисунком 1, где - уровень сложных иерархических систем, а - показатель детерминации сложных иерархических систем. Из таблицы 3 видно, что уровневая детерминация и гармонизированная детерминация совпадают только для первых двух уровней. В дальнейшем уровневая детерминация резко возрастает, приближаясь на седьмом уровне к единице. Системная детерминация занимает промежуточное положение.

Очевидно, гармонизированная детерминация ближе к интегральной, для которой значение детерминации меньше за счет вклада нижних уровней, отличающихся большей стохастичностью. Интегральная детерминация, как видно, существенно зависит от длины кода элемента [56]. На втором уровне абстрактной технологической схемы получается значение, практически совпадающее с отношением золотого сечения.

– номер уровня, – степень детерминации:

1 – гармонизированная, 2 – дифференцированная, 3 – интегральная

Рисунок 1 – Зависимость степени детерминации от уровня идеальной иерархической системы

Отсюда следует, что при произвольной элементной базе должны отличаться особой распространенностью трехуровневые системы с бинарным принципом организации.

Новизна проекта состоит в том, что данный проект представляет собой первый опыт применения энтропийно-информационного подхода для анализа технологических систем. Технологические процессы, в частности, металлургия цветных металлов, остаются важнейшим направлением в создании и развитии производительных сил экономики, оптимизация и совершенствование которых являет непреходящую проблему.

Традиционный подход к изучению и проектированию таких систем базировался на фундаментальных законах сохранения вещества и энергии, на основании которых технологические системы и их элементы описывались на языке материальных и тепловых балансов. Относительно существующих в таких системах потоков информации лишь утверждался факт их существования без какой-либо оценки. По мере развития технологии роль информации, сопровождающей технологический процесс, становится все более заметной. В этой связи актуальность разработки предлагаемого Проекта очевидна. Комбинация возможностей доступного математического аппарата и информационной энтропии позволили сформулировать действенный аппарат. При этом для конкретной оценки получаемых результатов использована универсальная единица информации – биты.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

1 Малышев В. П. Вероятностно-детерминированное отображение. – Алматы: Ғылым, 1994. – 376с.

2 Математическая энциклопедия. – М: Советская энциклопедия, 1979. – Т. 4. – 1104с.

3 Голин Г. М., Филонович С. Р. Классики физической науки. - М.: Высшая школа, 1989. – 576с.

4 Атабеков Г. И. Основы теории цепей. – М.: Энергия, 1969. – 424с.

5 R.J.E.Clausius. Abhandlung über die mechanische Wärmetheorie. – Braunschweig, 1887.

6 Гельфер Я. М. История и методология термодинамики и статистической физики. – М.: Высшая школа, 1969. – 536с.

7 Сивухин Д. В. Термодинамика и молекулярная физика. Учебное пособие для вузов. – М.: Наука, 1990. – 592с.

8 Касенов Б. К., Алдабергенов М. К., Пашинкин А. С., Касенова Ш. Б., Балакаева Г. Т., Адекенов С. М. Методы прикладной термодинамики в химии и металлургии. – Караганда, 2008. – 332с.

9 Малышев В. П. Термодинамические функции при бесконечно большой температуре // Вестник АН КазССР. – 1984. – №3. – С. 50-55.

10 Малышев В. П., Бисенбаева Ш. А., Волосатов И. В. Уточнение структуры экспоненциальной модели температурной зависимости энтропии // Деп. в ВИНИТИ 27.01.84, №503-84.

11 Малышев В. П., Бисенбаева Ш. А. Аспекты ограничения энтропии при бесконечно высокой температуре // Тезисы докладов III Всесоюзной конференции «Термодинамика и материаловедение полупроводников». – Москва, 1986. – Т.1. – С. 34-35.

12 Малышев В. П. О предельных значениях энтропии и теплоемкости // проблемы химии и металлургии Центрального Казахстана. – Т.1. Алма-Ата: Наука, 1985. – С. 27-37.

13 Малышев В. П. Основы термодинамики вещества при бесконечно высокой температуре. – Алма-Ата: Наука, 1986. – 64с.

14 Малышев В. П., Бисенбаева Ш. А. О предельно высоком значении энтропии одноатомного идеального газа // Вестник АН КазССР. – 1986. – №6. – С. 45-48.

15 Gibbs J.W. Elementary Principles in Statistical Mechanics, Developed with Especial Reference to the Rational Foundation of Thermodynamics. – N.Y.: Schribner, 1902. – 159 p.

16 Малышев В. П., Бисенбаева Ш. А., Касенов Б. К. О возможном дополнении парадокса Гиббса // Деп. в ВИНИТИ 29.08.86, №6304-В-86.

17 Boltzmann L. Weitere Studien über das Wärmegleichgewicht unter Gasmolekülen // Sitzber. Acad. Wiss. Wien. – 1872. – Bd. 66. – P. 275-376.

18 Tribus M. Information theory as the basic for thermostatics and thermodynamics // J. Appl. Mech. Ser. E. – 1961. – V.28. № 1. – P. 1-8.

19 Shannon C.E. A mathematical theory of communications // Bell Systems Tech. J. – 1948. – V. 27. – P. 623-656.

20 Бриллюен Л. Наука и теория информации. – М.: Физматгиз, 1960. – 328с.

21 Седов Е. А. Одна формула и весь мир. Книга об энтропии. – М.: Знание, 1982. – 176с.

22 Бриллюен Л. Научная неопределенность и информация. – М.: Мир, 1966. – 272с.

23 Климонтович Ю.Л. Физика открытых систем. – М.: Янус, 1995. – 624с.

24 Хинчин А.Я. Понятие энтропии в теории вероятности // Успехи математических наук. – 1953. – Т.8. №3. – С. 3-20.

25 MacArthur R.H. Educations of animal populations and measure of community stability // Ecology. – 1955. – V.36. №7. – P. 533-536.

26 Винер Н. Кибернетика и общество. – М.: ИЛ, 1958. – 256с.

27Колмогоров А. Н. Три подхода к понятию количества информации // Проблемы передачи информации. – 1965. – Т.1. Вып.1. – С. 3-11.

28 Хайтун С.Д. Механика и необратимость. – М.: Янус, 1996. – 448с.

29 Цымбал В.П. Теория информации и кодирование. – К.: Выща школа, 1977. – 288с.

30 Колмогоров А.Н., Гельфанд И.М., Яглом А.М. К общему определению количества информации // Доклады Академии наук СССР. – 1956. – Т.111. – С.745.

31 Шредингер Э. Что такое жизнь с точки зрения физики? – М.: ИЛ, 1947. – 245с.

32 Земан И. Познание и информация. – М.: Прогресс, 1966. – 176с.

33 Певзнер Л. Основы биоэнергетики. – М.: Мир, 1980. – 393с.

34 Каррери Дж. Порядок и беспорядок в структуре материи. – М.: Мир, 1985. – 315с.

35 Хакен Г. Синергетика. – М.: Мир, 1980. – 393с.

36 Haken H. Lines of development of synergetics // Dynamics of synergetic systems. B.Etc. – 1980. – P. 2-19.

37 Пригожин И.Р. От существующего к возникающему. – М.: Наука, 1985. – 328с.

38 Пригожин И.Р., Стенгерс И. Порядок из хаоса. – М.: Прогресс, 1986. – 205с.

39 Пупков К. А. Основы кибернетики: Теория кибернетических систем. – М.: Высшая школа, 1976. – 408с.

40 Бирюков Б. В. Кибернетика и методология науки. – М.: Наука, 1974. – 127с.

41 Николис Г., Пригожин И. Познание сложного. – М.: Мир, 1990. – 293с.

42 Эбелинг В. Образование структур при необратимых процесса. Введение в теорию диссипативных структур. – М.: Мир, 1979. – 279с.

43 Курдюмов С. П., Малинецкий Г. Г. Синергетика и теория саморегуляции. Идеи, методы, перспективы. – М.: Знание, 1983. – 252с.

44. Мутанов Г. М., Кутузова Е. С. Энергоэнтропийные методы оценки и управления экономическими системами. – Алматы: «Ғылым», 2002. – 142с.

45 Седов Е. А. Эволюция и информация. – М.: Наука, 1976. – 232с.

46 Абдеев Р.Ф. Механизм управления, его генезис и системоорганизующая роль // Философские науки. – 1990. - №4. – С. 105-113.

47 Hartley R.V.L. A New System of Logarithmic Units // Proceedings of the I.R.E., January 1955. – Vol. 43, №1.

48 Шеннон К. Э. Математическая теория связи // Работы по теории информации и кибернетике. – М.: ИЛ, 1963. – С. 243-332.

49 Седов Е. А. Взаимосвязь энергии, информации и энтропии в процессах управления и самоорганизации // Информатика и управление. – М.: Наука, 1985. – С. 31-45.

50 Кобозев Н. И. Исследования в области термодинамики процессов информации и мышления. – М.: Издательство МГУ, 1971. – 195с.

51 Эшби У. Р. Введение в кибернетику. – М.: ИЛ, 1959. – 109с.

52 Овчинников Н. Ф. Принципы сохранения. – М.: Наука, 1979. – 331с.

53 Сороко Э. М. Структурная гармония систем. – Минск: Наука и техника, 1984. – 264с.

54 Сороко Э. М. Управление развитием социально-экономических структур. – Минск: Наука и техника, 1985. – 144с.

55 Малышев В.П., Абдрахманов Б. Т., Нурмагамбетова А.М. Плавкость и пластичность металлов. – М.: Научный мир, 2004. – 148с.

56 Малышев В. П., Седов Е. А. Общие информационные свойства самоорганизующихся информационных систем // Вестник АН КазССР. – 1984. – № 7. – С. 62-71.

57 Малышев В. П., Седов Е. А. Теоретико-информационные основы вероятностно-детерминированного планирования эксперимента // Проблемы химии и металлургии Центрального Казахстана. Т. 4. Химия и технология халькогенов и халькогенидов. – Алма-Ата: Наука, 1985. – С. 88-110.

58 Хартли Р. Передача информации // Теория информации и ее приложения. – М.: Физматгиз, 1959. – С. 5-35.

59 Гмурман В. Е. Теория вероятностей и математическая статистика. – М.: Высшая школа, 1977. – 322с.

60 Кажикенова С. Ш. Информационные и энтропийные характеристики технологических операций // Материалы международной научно-практической конференции «Комплексная переработка минерального сырья», посвященной 50-летию ХМИ им Ж. Абишева и 15-летию НЦКПМС РК. – Караганда, 25-26 сентября 2008. – С. 421-424.

61 Габидулин, Э. М., Пилипчук, Н. И. Лекции по теории информации. – М.: МФТИ, 1997. – 214с.

62 Кажикенова С. Ш. Элементы теории вероятностей и математической статистики. – Караганда: КарГТУ, 2006. – 120с.

63 Kazhikenova S.Sh. The theorems of an information estimation of quality of technological products // Abstracts of the third congress of the world mathematical society of Turkic countries. – Almaty, 2009. – Volume 2. – pp. 210.

64 Налимов В. В. Вероятностная модель языка. – М.: Наука, 1979. – 69с.

65 Волькенштейн М. В. Энтропия и информация. – М.: Наука, 1986. – 192с.

66 Овчинников Н. Ф. Принципы сохранения. – М.: Наука, 1966. – 331с.

67 Вигнер Е. Этюды о симметрии. – М.: Мир, 1971. – 318с.

68 Самарский А. А., Гулин А. В. Численные методы. – М.: Наука, 1989. – 432с.

69 Бахвалов Н. С. Численные методы. – М.: Наука, 1975. – 530с.

70 Марчук Г. И. Методы вычислительной математики. 3-е изд. – М.: Наука, 1989. – 432с.

71 Турчак Л. И. Основы численных методов. – М.: Наука, 1989. – 432с.

72 Самарский А. А. Введение в теорию разностных схем. – М.: Наука, 1971. – 432с.

73 Марчук Г. И.. Шайдуров В. В. Повышение точности решений разностных схем. – М.: Наука, 1979. – 432с.

74 Исагулов А. З., Кажикенова С. Ш. Математические вопросы гидродинамики расплавов. Монография. – Караганда: КарГТУ, 2006. – 159с.

75 S.Sh.Kazhikenova. The entropy-information analysis of technological systems // Materialy IV Mezinarodni vedecko-prakticka conference «Veda a vznik – 2008/2009». Dil 15 Matematika Moderni informacni technologie Fyzika Vystavba a architektura. – Praha, 27 prosincu – 05 ledna 2009. – P.31-34.

76 Бронштейн И. Н., Семендяев К. А. Справочник по математике для инженеров и учащихся втузов. – М.: Наука, 1964. – 608 с.

77 Кажикенова С. Ш. Курс высшей математики. – Караганда: Санат, 2006. – 274с.

78 Маркович Э. С. Курс высшей математики с элементами теории вероятностей и математической статистики. – М.: Высшая школа, 1972 – 480с.

79 Кажикенова С. Ш., Малышев В. П. Энтропийно-информационные оценки в области цветной металлургии // Вестник Кузбасского государственного технического университета. – 2009. -№1. – С. 52-56.

80 V.P.Malyshev, S.Sh.KazhikenovaInformation-entropy analyses of the quality of manufacturing process of technological products // Eurasian PHYSICAL Technical journal. – 2009. – Т. 6.-№11. – рр 38-45.

81 Малышев В.П., Оспанов Е.А., Нурмагамбетова А.М., Кажикенова С.Ш. Качество технологических продуктов и процессов их получения // Промышленность Казахстана. – 2008. - № 4. – С. 52-56.

82 Малышев В.П., Оспанов Е.А., Нурмагамбетова А.М., Кажикенова С.Ш. Комплексная информационная оценка неопределенности качества технологических продуктов и процессов их получения // Материалы IV международной конференции «Стратегия качества в промышленности и образовании». – Варна, 2008. – Т. 2. – С.657-659.

83 Малышев В. П., Кажикенова С. Ш., Турдукожаева А. М. Обоснование информационной оценки качества технологических переделов и продуктов // Доклады Национальной академии наук Республики Казахстан. – 2008. – № 6. – С. 62-65.

84 Малышев В.П., Кажикенова С.Ш., Турдукожаева А. М. Теоретические и практические показатели детерминации технологических процессов по качеству передельных продуктов // Комплексное использование минерального сырья. – 2009. -№2. – С.21-29.

85 Кажикенова С. Ш. Теоретические основы информационного анализа технологических систем // Вестник Кузбасского государственного технического университета. – 2009. -№1. – С. 48-52.

86 Кажикенова С. Ш. Определение качества технологических продуктов в процессе их получения // Технология производства металлов и вторичных материалов. – 2008. – С. 25-32.

87 Кажикенова С. Ш. Информационный анализ иерархических систем // Новости науки и технологий. Беларусь. – 2009. -№1(10). – С.53-57.

Просмотров работы: 2546