Мегаобучалка Главная | О нас | Обратная связь  


Характеристики системы




Для изучения различных систем требуется выделить универсальные характеристики, при помощи которых можно было бы описать любую систему, независимо от ее типа. Такими характеристиками являются структура, состояние, энергия, энтропия, информация системы.

Структура (лат. structure — строение, расположение, порядок) — совокупность элементов и устойчивых связей объекта, обеспечивающих его целостность и тождественность самому себе, т. е. сохранение основных свойств при различных внешних и внутренних изменениях.

В более широком, нестрогом смысле понятие структуры употреблялось в научном и философском обиходе достаточно давно (по крайней мере со средних веков) и выступало в качество одного из способов определения понятия формы (форма как структура, организация содержания). В строгом смысле понятие структуры впервые развивается в химии в связи с возникновением в 19 в. теории химического строения вещества.

Структуру можно определить и как понятие, характеризующее количественную и качественную составляющие системы. Так, говоря о Солнечной системе, можно указать на взаиморасположение Солнца, планет и других объектов, входящих в ее состав, говоря о структуре живой клетки — продемонстрировать элементы, ее составляющие и т.д. Иногда о структуре говорят как о слепке системы в конкретный момент времени.



От структуры следует отличать состояние системы. Состояние характеризует в первую очередь отношения между элементами, указывая на возможность или невозможность того или иного вида взаимодействия. В качестве примера можно рассмотреть шахматную партию как систему взаимодействия различного рода элементов — шахматных фигур. Структура партии меняется с каждым сделанным ходом, и вместе с ней меняется ее состояние. Однако возможны такие взаимоотношения между фигурами, которые запрещены шахматными правилами, например, нахождение двух королей на соседних клетках шахматной доски. Такие состояния называются запрещенными в отличие от допустимых или разрешенных. Состояние системы характеризует законы и правила, которым подчиняются ее элементы.

Для характеристики системы огромное значение имеют так называемые вероятностные состояния. Они выражают возможность перехода системы в одно из разрешенных состояний под воздействием внешних или внутренних процессов. Так, брошенная монета может принять одно из двух разрешенных состояний — «орел или решка», брошенная игральная кость — одно из шести и т.д. Теоретически, монета может упасть на ребро, зависнуть в воздухе или вообще исчезнуть, однако на практике такие состояния оказываются запрещенными в силу действия физических законов нашего мира.

Состояние системы напрямую зависит от тех процессов, которые в ней происходят. Различают обратимые и необратимые состояния системы. Обратимым называется такое состояние, из которого при определенных затратах энергии возможен переход к предыдущему состоянию. Для определения необратимых состояний было введено понятие точки бифуркации.При развитии системы она проходит через ряд последовательно меняющихся состояний. До тех пор, пока в таком состоянии сохраняется возможность выбора перехода к одному из двух или более последующих состояний, оно будет обратимым. Однако в этой цепи существует точка, перейдя за которую вернуться к предыдущему состоянию уже нельзя, как нельзя и выбрать один из двух или более вариантов дальнейшего развития. Такие точки и называются точками бифуркации. Например, если считать начальным состоянием монеты момент до броска, а возможными конечными состояниями — «орла или решку» при падении на пол, то, до тех пор, пока монета находится в воздухе, ее состояния являются обратимыми — монету можно поймать и вернуть в исходное состояние, при котором будет сохраняться возможность выбора. В момент касания пола такая система будет проходить через точку бифуркации, когда ее состояние примет одно из двух значений.

Точки бифуркации применительно к другому приводившемуся примеру — шахматной партии — означают переход от начального расположения фигур к тому или иному дебюту (в начале партии возможен выбор любого из них, когда сделаны несколько ходов, определяется конкретный дебют, изменить который уже невозможно), переход от позиции с равными возможностями выигрыша, проигрыша или ничьей к позиции, заведомо проигранной и т.д. Данная категория широко применима в кибернетике и теории катастроф, где любые материальные и идеальные объекты рассматриваются в виде систем.

Также различают устойчивые и неустойчивые состояния.Устойчивое состояние сохраняет структуру системы за счет внутренней или внешней энергии. При устойчивом состоянии в системе сохраняется упорядоченность, т.е не происходит прироста энтропии (см. ниже).

От устойчивых и неустойчивых следует отличать равновесные и неравновесныесостояния. Равновесное состояние может быть неустойчивым и наоборот.

Энергия — одна из важнейших характеристик любой системы, показывающая ее количественное состояние. Энергия системы определяет саму возможность ее существования и развития. Термин «энергия» (ενέργεια) был введен Аристотелем для выражения одного из видов движения. В настоящее время энергия означает действие или возможность такого действия. Существует множество видов энергии, но все они взаимопревращаемы и подчинены фундаментальному физическому закону сохранения энергии. Энергетическая характеристика системы показывает, как и в каком направлении она может развиваться, возможно ли такое развитие, и если возможно, то каким образом. Для изучения энергии существует огромное количество математических и физических моделей. Энергию называют «царицей мира», поскольку с помощью этой категории можно описать состояние любого объекта материального мира. Эйнштейном была выведена формула энергии, присущей любому материальному телу:

 

Е = мс

где Е — суммарная энергия материального тела,

м — его масса

с — скорость света

 

Энергия, таким образом, пропорциональна массе тела и квадрату скорости света. В любой системе можно выделить несколько видов энергии, описывающих состояние системы с разных сторон. Это может быть кинетическая энергия тела, его потенциальная энергия, тепловая энергия и т.д. Существует так называемая шкала энергий, демонстрирующая сложность ее организации. Чем в большее количество видов энергии способен переходить один вид, тем выше он расположен по шкале. Наивысшим рангом обладает биологическая энергия, затем идет электрическая, механическая, химическая и тепловая энергии. Преобразования одних видов энергии в другие определяются принципом Карно: при определенной работе в замкнутой системе происходит преобразование энергии от наивысших ее форм к самым низким. Принцип Карно выражает «обесценивание» энергии. Универсальной мерой энергии, отсюда, будет теплота, как минимальный эквивалент любого другого вида энергии. Энергию любой системы можно выразить в терминах количества теплоты, не случайно единицами измерения энергии являются джоуль или калория.

Если энергия показывает количественную меру системы, то качественная мера определяется такой категорией как энтропия. Энергия и энтропия — неразрывно связанные величины, «царица мира и ее тень», однако величина энтропии не связана с величиной энергии, она зависит только от распределения энергии в системе.

Энтропия — величина, характеризующая хаотичность системы, мера ее беспорядка Энтропия теснейшим образом связана с понятием энергии, но не тождественна ему. Если энергию называют царицей мира, то энтропия — ее тень. Однако численное значение энтропии зависит не от количества энергии, а от ее свойств. Опираясь на закон сохранения энергии и принцип Карно, можно сделать вывод о стремлении энергии в любой замкнутой системе к переходу к наиболее низким формам и максимальному распределению. Например, для термодинамических систем принцип Карно выражает необходимость равномерного распределения температуры по всей системе. Равновесное состояние системы характеризует максимальный уровень энтропии в ней. Энтропия зависит от возможности выбора равновероятных состояний системы. Математически энтропия выражается формулой:

 

S = k ln W

где S — величина энтропии

k — числовая постоянная для каждой системы

W — количество равновероятных состояний системы

 

Следует четко представлять, что количество энергии в изолированной системе остается постоянным, меняется только ее качество — уровень сложности («ранг») и распределенность в системе. Это качественное изменение отражает энтропия. Принцип Карно, по сути, выражает закон возрастания энтропии изолированных систем. Для примера возьмем изолированный резервуар, мысленно разделенный на две части, и представим, что в одной его части температура выше, чем в другой. Тогда вероятность нахождения более «горячих» молекул в одной части резервуара будет стремиться к единице, в другой — к нулю. Однако такая система будет постепенно переходить к состоянию термодинамического равновесия, при достижении которого мы уже не сможем сказать, где расположены более «горячие», а где — «холодные» молекулы. Следовательно, энтропия системы в этом состоянии будет максимальной. Чем неустойчивее состояние системы, тем ниже ее энтропия. Когда же происходит переход из неустойчивого (маловероятного) состояния к более устойчивому (высоковероятному), с повышением вероятности повышается и энтропия.

Величиной, обратной энтропии, является информация. Это тоже количественная характеристика системы, однако она носит положительный характер. Дать определение информации достаточно сложно, например, один из основателей кибернетики Винер отмечал, что это «…не материя и не энергия, это просто информация». Качественное определение информации часто дают через понятие сообщения, однако некое сообщение, переданное от одного субъекта к другому, может являться информацией, а может и не являться. Наиболее употребительными признаны определения информации через различие двух или более объектов: «информация — это различие, порождающее другое различие» (Гр. Бейтсон), или через энтропию: «Информация — величина, обратная энтропии» (М. Планк, К. Шеннон).

Можно сказать, что информация является мерой идеального отражения реальных систем. Первое различие в определении Бейтсона — различие между объектами окружающего мира, второе, порождаемое первым — различие в символах, выражающих эти объекты. Идеальный символ отражает существование реального объекта, и не просто существование, а отличие его от других объектов, причем отличие, воспринимаемое наблюдателем.

Как ни странно, гораздо проще оказалось дать количественное определение информации, нежели качественное. Количество информации определяется по законам математической теории связи. Один из основоположников этой теории Р. Хартли предположил, что количество информации, заключающейся в любом сообщении, соответствует количеству возможностей состояния системы, исключающихся этим сообщением. Для количественной оценки информации принята величина «бит» (бинарная оппозиция). Один бит информации соответствует выбору одной из двух возможностей. Если таких возможностей больше, то для выбора потребуется такое количество шагов, какое необходимо для ряда последовательных бинарных оппозиций. При выборе из восьми вариантов состояния одного таких шагов понадобится три, при выборе из шестидесяти четырех — шесть. Следовательно, сообщение, указывающее на одно из полей шахматной доски, несет в себе шесть бит информации. Количество информации эквивалентно показателю степени, в которую необходимо возвести число «два», чтобы получить количество всех возможных равновероятностных состояний. Информация, таким образом, является логарифмической функцией:

 

I = ld W,

где I — количество информации в битах

ld — логарифм по основанию

W — количество равновероятных состояний системы

Нетрудно увидеть сходство этой формулы с формулой энтропии.

В 40 –е годы Клод Шеннон, исследуя пропускные способности каналов связи, вывел формулу расчета количества информации. Эта формула оказалась качественно тождественной формуле энтропии. Информацию поэтому можно воспринимать в качестве энтропии с обратным знаком, меры упорядоченности системы.

Для наглядности можно привести пример с охлаждением пара в замкнутом пространстве. Если в каком-либо резервуаре присутствует смесь пара и воздуха, то энтропия такой системы будет велика, т.к. мы не можем указать на положение молекул пара в резервуаре — они будут равномерно распределены по всему его объему. В этом случае информация о положении молекул пара будет мала. При понижении температуры произойдет конденсация — пар превратится в жидкость. Вероятность нахождения молекул воды в верхней части резервуара будет стремиться к нулю, следовательно, энтропия понизится, а количество информации возрастет — мы сможем сказать, что все молекулы воды находятся в нижней части резервуара. При дальнейшем охлаждении вода превратится в твердое вещество, в котором уже можно будет указать на местоположение каждой молекулы. Количество информации еще более увеличится, а энтропия системы уменьшится.




Читайте также:
Личность ребенка как объект и субъект в образовательной технологии: В настоящее время в России идет становление новой системы образования, ориентированного на вхождение...
Модели организации как закрытой, открытой, частично открытой системы: Закрытая система имеет жесткие фиксированные границы, ее действия относительно независимы...
Как вы ведете себя при стрессе?: Вы можете самостоятельно управлять стрессом! Каждый из нас имеет право и возможность уменьшить его воздействие на нас...



©2015-2020 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (472)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.01 сек.)