Файл: Кравченко Р.Г. Основы кибернетики учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 101

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

оценке неопределенности, лучше всего удовлетворяет логическая функция в форме, известной до сих пор как энтропия Больц­ мана. В теории информации энтропия принимает наибольшее значение, когда все вероятности равны, что имеет место при наибольшей неопределенности (это соответствует максималь­ ному разнообразию).

Энтропия системы отражает уровень ее организации. По вто­ рому закону термодинамики система, не имеющая связи с внеш­ ней средой (замкнутая система), с течением времени приходит в состояние наибольшего беспорядка, т. е. энтропия достигает максимума. Такое же положение в системах другой природы, на которую не оказывает влияние любое целенаправленное дейст­ вие. В этих системах энтропия непрерывно возрастает, т. е. уси­ ливается беспорядок. Возрастанию беспорядка должно быть противопоставлено управление, представляемое как процесс переработки информации. Управление позволяет уменьшить энт­ ропию в системе и уменьшить этим неопределенность в ее пове­ дении. Так, в производстве, в экономических системах для нор­ мального их функционирования должны быть четко взаимоувя­ заны ресурсы производства и все его процессы. При отсутствии или слабой их взаимоувязке неопределенность поведения, не­ определенность дальнейшего развития системы возрастает. Чем хаотичнее производство, чем беспорядочнее поступает информа­ ция, тем выше энтропия в производственной системе. В таком случае для упорядочения производства, сокращения энтропии необходимо получить больше информации, переработать ее и на этой основе принять эффективные управленческие решения. Ин­ формация при этом выступает как величина, противоположная энтропии. Таким образом, энтропия может выступать как мера недостающей информации о состоянии системы (чтобы подчерк­ нуть это положение, информацию иногда называют негэнтропией, т. е. отрицательной информацией). Энтропия по знаку противоположна информации. Энтропия есть мера неопределен­ ности, а неопределенность снимается информацией.

Всякое управление можно толковать' как увеличение упоря­ доченности в системе. Получая информацию о состоянии дел в производстве, человек, перерабатывая ее и передавая в виде управленческих решений, устраняет возможную неупорядочен­ ность производства, направляя его к намеченной цели. Управле­ ние устраняет хаос, сокращает энтропию, неопределенность по­ ведения, обеспечивает целенаправленное функционирование всех элементов системы. Сказанное позволяет понять одно толкова­ ние кибернетики как теории организации, упорядочения систем, борьбы порядка с хаосом.

В теории информации слово «информация» носит качествен­ ный характер. Получить информацию означает узнать что-то но­ вое, или узнать больше о чем-то известном. Информация озна­ чает множество новых сведений, которые дали сообщения.

76


D={x 1 , х2, х3, х4, *5, хв, x-j).

Одно и то же сообщение при разных обстоятельствах может содержать различное количество информации. Это зависит от разнообразия, которое наблюдается в системе.

Понятие «разнообразие» исходит из следующего. Дано мно­ жество. Сколько различных элементов оно содержит? Допустим, система семипольного севооборота. Если каждое поле считать элементом системы «севооборот», то система содержит семь раз­ личных элементов. О таком множестве будет говориться, что оно имеет разнообразие в семь элементов.

Если условиться измерять количество информации логариф­ мической мерой, то максимальное разнообразие системы, или

еемаксимальная информационная емкость, равно

Н= log N,

где ./V— число состояний системы (формула выведена Л. Хартли).

Слово «разнообразие» в применении к множеству различных элементов будет употребляться в двух смыслах: как число раз­ личных элементов и как логарифм этого числа по основанию.

Чем больше в системе разнообразия, тем больше неопреде­ ленность в поведении такой системы. Уменьшение разнообразия уменьшает ее неопределенность и, наоборот, увеличение неопре­ деленности свидетельствует об увеличении разнообразия.

Целесообразное функционирование системы наблюдается в том случае, если управляющая подсистема располагает сама до­ статочным количеством разнообразия по сравнению с управляе­ мой подсистемой. Иными словами, только разнообразие в управ­ ляющей подсистеме (регуляторе системы) способно уменьшить разнообразие, создаваемое в управляемой подсистеме (объекте управления).

Только разнообразие может уничтожить разнообразие это и есть основной тезис закона необходимого разнообразия.

Для того чтобы управляющая подсистема могла достаточно эффективно воздействовать на управляемую подсистему (при наличии в ней необходимого разнообразия), она должна полу­ чить достаточную информацию, чтобы уменьшить неопределен­ ность о состоянии системы.

Например, нам известно, что система «севооборот» имеет семь элементов ичто управляющая подсистема должна осущест­ вить преобразование по двум из этих семи элементов, посеяв

на них яровую пшеницу.

Представим, что эта система (множество D) состоит из эле­ ментов:

Пока неизвестно, какой из этих элементов будет претерпе­ вать преобразования, так как возможности этого равны, разно­ образие максимально, неопределенность о поведении системы также максимальна.

77


Управляющая подсистема (R) имеет информацию о том, что ротация севооборота предполагает следующее чередование куль­ тур: чистый пар (Л), озимые зерновые (Б), многолетние травы первого года пользования (С), многолетние травы второго года пользования (D), яровые зерновые (Е), пропашные (F), яровые зерновые (G), т. е. преобразование каждого из элементов си­ стемы (Т) происходит так:

т . | А

В С D Е

F G А

' \ В

С D Е F

G А В

Заметим, что если бы R не располагала данным разнообра­ зием, то вообще о дальнейшем целесообразном управлении не могло быть речи.

Но этого мало. R должна получить информацию о современ­ ном состоянии D. Представим, что она получила информацию: на каком-то поле в этом году будет культура В, на других — С, D\ но эта информация не сокращает неопределенности у R и соответственно не уменьшает разнообразия в системе D.

На следующем этапе получена информация, что х2— нЗ, XiуС, хьуО. Следовательно, для размещения яровых зерно­ вых остались поля Xu х3, х6, х7. Разнообразие сократилось с семи элементов до четырех, соответственно уменьшилась неопределен­ ность в управлении системой.

Следующая информация получена о том, что предшествую­ щими характеристиками преобразований на поле Х\. было G, на х3D. Тогда разнообразие, которым располагает R, позво­ ляет утверждать, что следующее преобразование, которое будет претерпевать элемент Х \ , будет G— yAt а х3— DуЕ. Таким образом, одно из двух полей, которое будет занято под зерно­ выми, будет х3. Но на каком поле будут посеяны еще зерновые— на х6 или х7? В данном случае разнообразие сократилось с семи до двух элементов, соответственно уменьшилась неопределен­ ность. В этом случае требуется минимальное количество инфор­ мации: скажем, чем было занято поле хв (или поле х7, безраз­ лично)? Допустим, получена информация, что хв было занято ранее культурой Е. Очевидно, в текущем году второе поле зер­ новых яровых будет на х7>где преобразования будут FyG.

Разнообразие, которым располагала R, позволило полностью уничтожить на данном этапе разнообразие, создаваемое D, пол­ ностью устранить неопределенность в поведении системы. Но заметим, что это только на данном этапе. При определении последующего состояния системы будет создаваться вновь раз­ нообразие в D, не превышающее максимально возможного, и вновь будет неопределенность в преобразованиях системы, пока R не получит нужную информацию.

Допустим, что последующие чередования культур на полях севооборота будут проходить по несколько измененной схеме

78


или же имеются опытные данные о том, что несколько изменен­ ное чередование повысит экономическую эффективность сево­ оборота и в большей степени будет удовлетворять производство. Но если R не будет обладать достаточным разнообразием и в числе элементов ее системы не будет присутствовать элемент, соответствующий новому порядку преобразований, то она либо не сможет уничтожить все разнообразие, на которое способна система D, или в лучшем случае будет уничтожать только то разнообразие, которое было ей доступно ранее. То же будет, если возникает какое-то возмущающее действие, a R не знает, как его подавить.

Приведенный пример, подтверждая справедливость утверж­ дения: информация — все то, что устраняет неопределенность, позволяет сделать еще следующие дополнительные выводы.

1.Последствием принятия информации является ограничение разнообразия множества, из которого осуществлялся выбор.

2.Информация существует только с системой, действие кото­ рой она обусловливает. Это означает, что сведение является информацией в тех случаях, когда существует система, которая способна и хочет согласно принятой информации изменять свою деятельность.

3.Объем информации не определяется одним сообщением (сведением), информация не является внутренней особенностью

одного сообщения. Информация определяется тем, что можно было бы ожидать, сколько возможностей и с какой вероятностью.

Количественная оценка информации. Непосредственная коли­ чественная оценка (измерение) информации практически пока неизвестна. Поскольку же информация является тем, что умень­ шает какую-то неопределенность у получающего ее, то можно к ее измерению подойти через степень неопределенности. Для этого прежде всего необходимо установить общую степень не­ определенности в поведении управляемой системы. Затем, после получения определенного количества информации, вновь установить неопределенность и определить разность, т. е. какое количество неопределенности устранила данная информация. Таким образом можно дать количественную оценку информации.

Рассмотрим некоторые основные особенности неопределен­

ности.

У детерминированной системы достаточно знать состояние импульсов на входах и функцию системы, для того чтобы устра­ нить полностью неопределенность поведения системы и полу­ чить полную информацию о реакции системы на выходах.

В отличие от этого информация о значениях импульсов на входах стохастической системы содержит значительно меньше информации о возможных реакциях на ее выходах. Это объяс­ няется тем, что каждому импульсу на входах стохастической системы соответствует больше одной реакции на выходах, каж­ дая с определенной вероятностью, что можно установить прове­

79