ТОП авторов и книг     ИСКАТЬ КНИГУ В БИБЛИОТЕКЕ

А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  AZ

 


Хотелось бы заранее предупредить читателя о том, что в последующих разделах не приводится сопоставительный анализ эволюционных концепций Дарвина и Ламарка с современными теориями эволюции, будь то неодарвинизм, неоламаркизм или какая-либо иная теория. Авторы этой книги пытались с помощью методов теории информации найти научный подход к решению более общей задачи, а именно — к критическому анализу лежащей в основе всех упомянутых выше эволюционных концепций эволюционной идеи, согласно которой как сама жизнь, так и ее многочисленные формы возникали не в соответствии с единым планом творения, а путем обусловленного сугубо случайными факторами (флуктуациями неорганических или мутациями генетических систем) самопроизвольного усложнения более примитивных систем.
Ниже будет показано, что проводимые современной наукой исследования свойств информационных систем дают все основания утверждать, что все эти системы могут формироваться только согласно спускаемым с верхних иерархических уровней правилами причем сами эти правила существовали раньше самих систем в форме изначального плана (идеи творения), что и нашло свое отражение в самом названии этой книги, с той лишь существенной поправкой, что, обращаясь к первоисточникам Библии, следует Слово понимать как «Логос», т. е. идею, замысел, план.
ЧТО ИЗМЕРИЛ КЛОД ШЕННОН
В основу теории информации положен предложенный К Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации. содержащейся в сообщениях, передаваемых по каналам технической связи.
Предложенный Шенноном метод измерения количества информации оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений.
Вопреки мнению самого К. Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое применив в исследованиях и физических, и биологических, и социальных систем.
Ключом к новому пониманию сущности феномена информации и механизма информационных процессов послужила установленная Л Бриллюэном взаимосвязь информации и физической энтропии Эта взаимосвязь была первоначально заложена в самый фундамент теории информации, поскольку для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятную функцию энтропии.
Многие ученые (начиная с самого К. Шеннона) склонны были рассматривать такое заимствование как чисто формальный прием Л Бриллюэн показал, что между вычисленным согласно Шеннону количеством информации и физической энтропии существует не формальная, а содержательная связь.
В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости) приближаются к равновероятным, а энтропия при этом стремится к максимальной величине.
Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст5.
Еще один важный вывод заключается в том, что
с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.
Данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и др.
При этом, если для газа или кристалла при вычислении энтропии сравнивается только микросостояние (т. е. состояние атомов и молекул) и макросостояние этих систем (т. е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производится на том или ином произвольно выбранном уровне6. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т. е. тех элементов, которые в своей совокупности образуют эти системы.
Другими словами,
количество сохраняемой в структуре системы информации пропорционально степени отклонения системы от состояния равновесия, обусловленного сохраняемым в структуре системы порядком.
Сам того не подозревая, Шеннон вооружил науку универсальной мерой, пригодной в принципе (при условии выявления значений всех вероятностей) для оценки степени упорядоченности всех существующих в мире систем.
Определив введенную Шеноном информационную меру как меру упорядоченности движения, можно установить взаимосвязь информации и энергии, считая энергию мерой интенсивности движения. При этом одному из авторов этой книги удалось показать, что количество сохраняемой в структуре систем информации пропорционально суммарной энергии внутренних связей этих систем7.
Одновременно с выявлением общих свойств информации как феномена обнаруживаются и принципиальные различия относящихся к различным уровням сложности информационных систем.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

ТОП авторов и книг     ИСКАТЬ КНИГУ В БИБЛИОТЕКЕ    

Рубрики

Рубрики