ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 04.04.2024
Просмотров: 104
Скачиваний: 1
рии вероятностей называется полной системой событий. Каждое из событий при этом характеризуется некоторой вероятностью. Они могут быть одинаковыми, как у иг ральной кости, но могут быть, вообще говоря, и разны ми. С учетом этого принято характеризовать полную си стему событий понятием конечной схемы, в которой каж дое из событий системы задается вместе с указанием его вероятности. Записывается конечная схема следующим образом:
Ах, |
А2> Аз ... А |
Рх, |
р 2, р 3 ... р п |
В этом выражении знаками Ах, А2, А3.... Ап обозначе ны условно события, а знаками рх, р2, рз-Рп — соответ ствующие им вероятности.
Как крайние случаи вероятностей различаются собы тия достоверные и невероятные. Достоверное — это та кое событие, которое происходит наверняка. Вероятность достоверного события равна единице. Напротив, неверо ятное событие, по самому своему названию, произойти вообще не может. Его вероятность равна нулю. Различ ные значения вероятностей событий располагаются толь
ко между нулем и единицей.
По определению конечной схемы полной системы со бытий, при любом ее испытании одно из событий обяза тельно должно иметь место. Так, на светофоре, если он исправен, обязательно должен наблюдаться один из его цветов. Это означает, что сумма вероятностей событий, описанных конечной схемой, должна обязательно рав няться единице. При этом каждое из событий может иметь вероятность в пределах между нулем и единицей. Это означает, например, что если вероятность события А1
114
равна единице, то вероятности всех остальных событий должны равняться нулю. Иначе не выполнится условие равенства единице суммы всех вероятностей.
Приступим теперь к мысленному испытанию конечной1 схемы, заданной в математической форме, как это выше показано и рассказано. Можно ли заранее сказать, какое из событий произойдет в предстоящем испытании? На пример,.какая цифра выпадет при выбрасывании играль ной кости? Здесь, очевидно, мы снова встречаемся с не определенностью. Нельзя сказать, какое из событий произойдет, но можно, оказывается, дать точную количе ственную оценку самой неопределенности, которая разре шится затем при испытании.
Американский математик и инженер Клод Шеннон до казал, что неопределенность любой конечной схемы пол ной системы событий оценивается отрицательной сум мой произведений вероятностей на их логарифмы. Соот ветствующее выражение называется в теории вероятно стей энтропией —
П
н == — Е Рк рк.
к= 1
Допустим, что вероятность одного из событий, напри мер того, которое обозначено А1 , равна единице. Тогда вероятности всех других событий должны равняться ну лям. Неопределенность такой конечной схемы равна ну лю, то есть сколько бы мы ее ни испытывали, всегда бу дет иметь место событие Аь и это известно заранее. Под ставляя такие значения вероятностей в выражение энт ропии, легко увидеть, что оно также будет равно нулю.
Когда же неопределенность схемы будет максималь ной? Это будет случай, когда вероятности всех событий, входящих в полную систему, одинаковы. Тогда вероят
ен |
115 |
ность каждого из них будет равна единице, поделенной на общее число событий:
1
Рк = 1 Г-
Такое значение вероятностей можно подставить в вы ражение энтропии. Пересчитав его по правилам опера ций с логарифмами, мы получим при этом:
Н = Iogn.
Это значит, что величина неопределенности в данном случае будет зависеть только от числа событий, входя щих в систему. Чем их больше, тем больше неопределен ность. Это представляется вполне правдоподобным.
Выраженное через энтропию количественное значение неопределенности конечной схемы полной системы собы тий как раз и принимается в шенноновской теории инфор мации за меру ее количества.
Теперь нам надо вспомнить, что именно на оценке не определенности относительно некоторого действия мы остановились выше, рассматривая свои примеры. При этом оказалось, что оценка неопределенности может быть осуществлена в общем виде, то есть таком, который при меним к любым конкретным объектам. Теперь осталось только условиться о единице такой оценки неопределен ности. Это можно сделать, взяв простейший ее случай.
Основание логарифмов в выражении энтропии конеч ной схемы может быть любым. В теории информации в качестве такого основания принимается двойка. При этом выражение энтропии будет равно единице для конечной схемы, представляющей два равновероятных события:
Н = log2 2 = 1 .
116
Примером испытания такой системы событий являет ся выпадение герба или знака при подбрасывании моне ты. Разрешение неопределенности, следующее из такого испытания, принимается в теории информации за едини цу количества информации и называется один бит (от английского выражения «binary digit», означающего «двойной знак»), В числе бит может быть оценено через выражение энтропии количество информации, получае мое при испытаниях любой полной системы событий.
Наряду с понятием сложной динамической системы понятие информации является основным в кибернетике. Испольузется оно сегодня чрезвычайно широко. Тем не менее точного и однозначного определения понятия ин формации, такого притом, чтобы все были с ним соглас ны, на сегодня пока еще не существует. В этом нет ни чего удивительного. Еще более широко, чем понятие ин формации, используется в современной науке понятие энергии. Несмотря на это задача точного определения понятия энергии в краткой формулировке вряд ли может считаться более простой в сравнении с задачей анало гичного определения понятия информации. Такие опреде ления все же встречаются. А вот определения понятия вещества трудно даже встретить. Единственное, пожа луй, что имеется, — это определение его через химию, как науку, изучающую превращение веществ.
Отмеченные трудности не распространяются в науке на количественную меру как энергии, так и информации. Поэтому именно с уяснения себе, что такое количество информации, мы начали знакомство с этим понятием.
Понятие информации, как разрешение некоторой не определенности, выраженное через соответствующую ме ру, вполне согласуется с нашим о ней интуитивным пред ставлением. Мы встречаемся с различными формами со общений в своей жизни. Но будь это слова или сочетания
117
слов в художественной литературе, или формы произве дения искусства, или же знаки и термины научных опре делений, в любых случаях мы согласимся с наличием ин формации в сообщении только при условии, если оно слу жит нам разрешением какой-либо неопределенности. В противном случае любые формы сообщений будут для нас бессодержательными, не несущими никакой инфор мации. Это будет в тех случаях, когда смысловое значе ние сообщения нам непонятно, а также и тогда, когда это значение известно нам заранее.
Понятие информации служит основой для характери стики процессов организации в сложных динамических системах кибернетики. Вспомним, что признаками слож ной динамической системы кибернетики являются ее элементы, программа их функционирования и, наконец, специальные сигналы, организующие систему. Каждый та кой сигнал представляет собою не что иное, как испыта ние, в итоге которого разрешается неопределенность в действии элемента в зависимости от программы. Именно по отношению к программе как раз и имеет место раз решение неопределенности. Этим самым и определяется то количество информации, которое реализуется в дан ной конкретной системе.
Так, сигнал светофора представляет собою испытание с разрешением неопределенности относительно програм мы или правил уличного движения. Это определяет для водителя возможность проезда перекрестка. Можно учесть все вероятные возможности проезда обычного пе рекрестка, открываемые тремя основными сигналами светофора, а затем подсчитать количество информации, реализуемое в данной системе. Приблизительно оно бу дет равным 1,6 бита.
В сложной динамической системе вычислительной ма шины также обеспечивается разрешение неопределенно
118
сти в состояниях основных ее устройств. При этом схемы полных систем событий задаются в кодах програм мы работы машины. Испытания таких схем обеспечива ются тактовыми импульсами, которые выполняют роль, подобную роли сигналов светофора на перекрестке.
Максимальное количество разрядов в регистрах со временных вычислительных машин равно приблизитель но шестидесяти. Каждый разряд регистра может нахо диться в любом из двух состояний: нуль или единица. При этом общее число различных возможных состояний регистра в целом будет равно 260, что равняется пример но 1018. Такая степень десяти является не представимым нашему воображению числом в миллиард миллиардов. Каждое из состояний шестидесятиразрядного регистра машины связано с разрешением неопределенности, свя занной с таким числом. Как же это обеспечивается в сов ременных машинах?
Работа вычислительной машины осуществляется эле ментарными операциями, в каждой из которых участву ет один код команды. При этом осуществляется выбор одного из возможных состояний регистра. Практический предел скорости работы для самых сложных и совершен
ных вычислительных |
машин сегодня — миллион опе |
раций в одну секунду. |
Для того чтобы в такой машине |
можно было перебрать все возможные состояния шести десятиразрядного регистра, она должна проработать не прерывно несколько миллионов лет.
Известный специалист по кибернетике У. Р. Эшби предложил порядок в классификации чисел. Целые чис ла в пределах от 10° до 1010 он предлагает считать «прак тическими». Это значит, что мы можем сегодня осущест влять реальные операции с числами, лежащими в этих пределах, и пользоваться ими в своей практике.
Числа, лежащие в пределах от 1010 до 10100, он отно
119
сит к «астрономическим». К таким числам принадлежат, например, число атомов в известных пределах Вселен ной (1073) и число миллионных долей секунды, прошед шее с момента затвердевания Земли (1023).
Для того чтобы перебрать все возможные сочетания из 52 карт, нам понадобилось бы не менее, чем 1068 опе раций. Решение такой задачи — дело, совершенно немыс лимое с практической точки зрения сегодняшнего дня. Самая смелая фантазия не допускает возможности та кого быстродействия машин, как мы их сегодня пред ставляем, чтобы подобную задачу можно было решить в сколь-либо реальные сроки.
Но обратимся к миру молекулярных процессов, про текающих в клетке. В состав молекул белка может вхо дить около сотни исходных аминокислот. Свойство такой молекулы будет строго определяться составом амино кислот молекулы белка и последовательностью их распо ложения. Количество различных комбинаций будет здесь значительно больше, чем-в случае перетасовки с картами. Но разрешение неопределенности, возникающей при об разовании в клетке определенной молекулы, обеспечи вается совершенно точно и, практически, мгновенно. Ка ким образом? Это секрет, который предстоит разре шить науке.
Понятие информации является одним из основных в кибернетике. Оно позволяет дать характеристику слож ности той или иной системы вплоть до определенной ко личественной меры. На такой основе можно судить о сложности систем в рассмотренных примерах. Среди них наиболее простой системой является перекресток, а наиболее сложной — живая клетка.
Количество информации, которым оценивается орга низация перекрестка, настолько мало, что для сознатель ного управления им не требуется привлекать какие-либо
1 2 0
специальные научные понятия и методы. Напротив, коли чество информации, реализуемое в живой клетке, на столько велико, что высокоэффективное сознательное воздействие на протекающие в ней процессы оказывается сомнительным даже при значительно более высоком уровне развития понятий и средств науки, чем тот, кото рым мы располагаем сегодня.
Между ними имеется множество организованных си стем, характеризуемых промежуточными по величине, количествами информаций. Таковы, в первую очередь, эко номические и технические объекты. Количество информа ции в них достаточно велико для того, чтобы обусловли вать необходимость привлечения специальных понятий науки, и в то же время достаточно мало для того, чтобы мы могли надеяться уже сегодня обеспечить их высоко эффективное практическое использование.
Вряд ли можно иметь серьезные надежды на то, что мы когда-нибудь сможем эффективно оперировать с мас штабами чисел, которыми характеризуются процессы ор ганизации в клетке. Такие надежды равносильны по сво ей реальности мечте о путешествии в район туманности Андромеды. Но нам необходимо раскрыть принципы про цессов организации, реализованные природой в клетке. Познав эти принципы, мы сможем использовать их в практике с более простыми организованными системами.
Следует ли с точки зрения понятия принципов орга низации считать живыми организованные системы лю бой материальной природы? Утверждает ли оно, напри мер, полную эквивалентность таких систем, как перекре сток и живая клетка, или же говорит лишь об их подобии
водном из отношений?
Вплане ответа на такие вопросы необходимо, во-пер вых, согласиться с тем, что проведение принципиальных различий между живым и неживым на основе внеш-
8 Заказ Кв 355 |
121 |