Мегаобучалка Главная | О нас | Обратная связь


Подходы к понятию информации



2016-01-02 1041 Обсуждений (0)
Подходы к понятию информации 0.00 из 5.00 0 оценок




С позиции человека информация – это содержание разных сообщений, это самые разнообразные сведения, которые человек получает из окружающего мира через свои органы чувств.

Компьютер – это универсальный программно управляемый автомат для работы с информацией. Компьютер работает с двоичными кодами (1 и 0).

Термин «информация» начал широко употребляться с середины ХХ века. В наибольшей степени понятие информации обязано своим распространением двум научным направлениям: теории связи и кибернетике.

Автор теории связи Клод Шелдон, анализируя технические системы связи (телеграф, телефон, радио) рассматривал их как системы передачи информации. В таких системах информация передается в виде последовательностей сигналов: электрических или электромагнитных.

Основатель кибернетики Норберт Винер анализировал разнообразные процессы управления в живых организмах и в технических системах. Процессы управления рассматриваются в кибернетике как информационные процессы.

 

Информация в системах управления циркулирует в виде сигналов, передаваемых по информационным каналам.

В ХХ веке понятие информация повсеместно проникает в науку. Нейрофизиология (раздел биологии) изучает механизмы нервной деятельности животного и человека. Эта наука строит модель информационных процессов, происходящих в организме. Поступающая извне информация превращается в сигналы электрохимической природы, которые от органов чувств передаются по нервным волокнам к нейронам (нервным клеткам) мозга. Мозг передает управляющую информацию в виде сигналов той же природы к мышечным тканям, управляя органами движения. Описанный механизм хорошо согласуется с кибернетической моделью Н. Винера.

В другой биологической науке – генетике используется понятие наследственной информации, заложенной в структуре молекул ДНК, присутствующих в ядрах клеток живых организмов (растений, животных, человека). Генетика доказала, что эта структура является своеобразным кодом, определяющим функционирование всего организма: его рост, развитие, патологии и т.д. Через молекулы ДНК происходит передача наследственной информации от поколения к поколению.

Понятие информации относится к числу фундаментальных, т.е. является основополагающим для науки и не объясняется через другие понятия. В этом смысле информация встает в один ряд с такими фундаментальными научными понятиями, как вещество, энергия, пространство, время. Осмыслением информации как фундаментального понятия занимается наука философия.

Согласно одной из философских концепций, информация является свойством всего сущего, всех материальных объектов мира. Такая концепция информации называетсяатрибутивной (информация – атрибут всех материальных объектов). Информация в мире возникла вместе со Вселенной. С такой широкой точки зрения информация проявляется в воздействии одних объектов на другие.

Другую философскую концепцию информации называют функциональной. Согласно функциональному подходу, информация появилась лишь с возникновением жизни, так как связана с функционированием сложных самоорганизующихся систем, к которым относятся живые организмы и человеческое общество. Можно еще сказать так: информация – это атрибут, свойственный только живой природе. Это один из существенных признаков, отделяющих в природе живое от неживого.

Третья философская концепция информации – антропоцентрическая, согласно которой информация существует лишь в человеческом сознании, в человеческом восприятии. Информационная деятельность присуща только человеку, происходит в социальных системах. Создавая информационную технику, человек создает инструменты для своей информационной деятельности. Можно сказать, что употребление понятия «информация» в повседневной жизни происходит в антропологическом контексте.

Делая выбор между различными точками зрения, надо помнить, что всякая научная теория – это лишь модель бесконечно сложного мира, поэтому она не может отражать его точно и в полной мере.

Понятие информации
Теория информации Результат развития теории связи (К. Шеннон) Информация – содержание, заложенное в знаковые (сигнальные последовательности)
Кибернетика Исследует информационные процессы в системах управления (Н. Винер) Информация – содержание сигналов, передаваемых по каналам связи в системах управления
Нейрофизиология Изучает информационные процессы в механизмах нервной деятельности животного и человека Информация – содержание сигналов электрохимической природы, передающихся по нервным волокнам организма
Генетика Изучает механизмы наследственности, пользуется понятием «наследственная информация» Информация – содержание генетического кода – структуры молекул ДНК, входящих в состав клетки живого организма
Философия Атрибутивная концепция: Информация – всеобщее свойство (атрибут) материи
Функциональная концепция: Информация и информационные процессы присущи только живой природе, являются ее функцией
Антропоцентрическая концепция: Информация и информационные процессы присущи только человеку


10. Содержательный (вероятностный) подход к измерению информации

Существует два подхода к измерению информации: содержательный (вероятностный) и объемный (алфавитный).

Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знания или к уменьшению неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.

Пусть у нас имеется монета, которую мы бросаем. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка». Можно говорить, что события равновероятны.

Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска – только одно, то есть в два раза меньше.

Чем больше неопределенна первоначальная ситуация (возможно большее количество информационных сообщений – например, бросаем не монету, а шестигранный кубик), тем больше мы получим новой информации при получении информационного сообщения (в большее количество раз уменьшится неопределенность знания).

 

Количество информацииможно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

Существует формула – главная формула информатики, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение:

 

N = 2I

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа бит.

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

2 = 21

Бит – наименьшая единица измерения информации.

С помощью набора битов можно представить любой знак и любое число. Знаки представляются восьмиразрядными комбинациями битов – байтами.

 

1байт = 8 битов = 23 битов

Байт– это 8 битов, рассматриваемые как единое целое, основная единица компьютерных данных.

Рассмотрим, каково количество комбинаций битов в байте.

Если у нас две двоичные цифры (бита), то число возможных комбинаций из них:

22=4: 00, 01, 10, 11

Если четыредвоичные цифры (бита), то число возможных комбинаций:

 

24=16: 0000, 0001, 0010, 0011,

0100, 0101, 0110, 0111,

1000, 1001, 1010, 1011,

1100, 1101, 1110, 1111

Так как в байте 8 бит (двоичных цифр), то число возможных комбинаций битов в байте:

28=256

Таким образом, байт может принимать одно из 256 значений или комбинаций битов.

Для измерения информации используются более крупные единицы: килобайты, мегабайты, гигабайты, терабайты и т.д.

1 Кбайт = 210 байт = 1 024 байт

1 Мбайт = 220 байт = 210 Кбайт = 1 024 Кбайт = 1 048 576 байт

1 Гбайт = 230 байт = 1 024 Мбайт

1 Тбайт = 240 байт = 1 024 Гбайт

 

Единицы измерения информации
Название Символ Символ ГОСТ Приставка
Десятичная Двоичная
байт В байт 100 20
килобайт kB Кбайт 103 210
мегабайт MB Мбайт 106 220
гигабайт GB Гбайт 109 230
терабайт TB Тбайт 1012 240
петабайт PB Пбайт 1015 250
эксабайт EB Эбайт 1018 260
зетабайт ZB Збайт 1021 270
йоттабайт YB Йбайт 1024 280


Проведем аналогию с единицами длины:

если 1 бит «соответствует» 1 мм, то:

1 байт – 10 мм = 1см;

1 Кбайт – 1000 см = 10 м;

1 Мбайт – 10 000 м = 10 км;

1 Гбайт – 10 000 км (расстояние от Москвы до Владивостока).

Рассмотрим следующие примеры:

страница учебника содержит приблизительно 3 Кбайта информации;

1 газета – 150 Кбайт.

 



2016-01-02 1041 Обсуждений (0)
Подходы к понятию информации 0.00 из 5.00 0 оценок









Обсуждение в статье: Подходы к понятию информации

Обсуждений еще не было, будьте первым... ↓↓↓

Отправить сообщение

Популярное:
Личность ребенка как объект и субъект в образовательной технологии: В настоящее время в России идет становление новой системы образования, ориентированного на вхождение...
Почему человек чувствует себя несчастным?: Для начала определим, что такое несчастье. Несчастьем мы будем считать психологическое состояние...



©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (1041)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.011 сек.)