2015-09-29

Количество информации (8кл)

Сахар измеряют в килограммах, воду в литрах, длину дороги в метрах, время в секундах, а в чем измерять информацию?

А для чего вообще понадобилось ее измерять?

Только с появлением компьютера появилась необходимость измерять объем информации

Действительно, тысячелетиями человеку приходилось жить в мире информации, выполнять все шесть операций с информацией (прием, передача, поиск, создание, хранение и обработка), но только в середине 20 века появилась необходимость информацию замерять. Причиной этому стало появление полноценных устройств, предназначенных для работы с информацией - компьютеров. Именно при производстве компьютеров очень важно понимать какой объем занимает та или иная информация, т.к. для ее хранения требуются технические ресурсы компьютера.

 

п. 1      Количество информации как мера уменьшения неопределенности знаний. (Количественный подход)

В принципе существуют 2 способа измерения информации - количественный и алфавитный.

Начнем с рассмотрения количественного подхода.

В количественном подходе информация рассматривается как мера уменьшения неопределенности.

Дело в том, что любое информационное сообщения так или иначе уменьшает исходную неопределенность знаний. Например при бросании монеты, у нас было две неопределенности - монета может упасть "решкой" или "орлом". Но после падения монеты эти 2 неопределенности исчезли. 

Другой пример: бросаем игральный кубик, у которого 6 граней. До бросания было 6 неопределенностей, после бросания они все исчезли, т.к. кубик упал одним конкретным образом, и у нас неопределенности исчезли.

Другой пример: Вы встречаете родственника на вокзале, а в поезде, на котором он едет 16 вагонов. Пока Вы не выяснили в каком вагоне едет родственник - у Вас 16 неопреленностей, но после того, как он Вам сообщил по телефону, все неопределенности пропали. В каждом из рассмотренных примеров Вы получали сообщения, которые уменьшали неопределенность Ваших знаний.

Как Вы думаете в каком из трех случаев сообщение содержало больше всего информации?

Правильный ответ - в сообщении Вашего родственника. Чем большую неопределенность устраняет сообщение, тем больше информации оно содержит.

А в чем измеряется информация? - спросит любопытный ученик.

Единица измерения информации - БИТ

Слово бит появилось только в 20-м веке и произошло оно от слияния двух английских слов - binary (двоичный) и digit (цифра). Т.о. БИТ - означет "двоичная цифра".

А сколько это - 1 бит информации? Хороший вопрос! Если сообщение уменьшило исходную неопределенность в 2 раза, то сообщение как-раз и содержит 1 бит информации. В вышеприведенных примерах 1 бит информации содержит сообщение о падении монеты "орлом" или "решкой".

Это можно понять так: для того чтобы узнать у другого человека как упала монета Вам потребуется задать ему максимум  один вопрос, на который можно ответить "Да" или "Нет", например: "Монета упала орлом?". После ответа на этот вопрос Вы точно будете знать как упала монета.

Разберемся со случаем с поездом.  Изобразим схематично поезд на рисунке:

Посчитаем максимальное количество "Да-нет - вопросов", чтобы выяснить размещение родственника в поезде.  Первый вопрос мог бы быть такой:

1) Ваш вагон с 1 по 8?  - допустим получили ответ - нет.

2) Ваш вагон  с 13 по 16? - допустим нет.

3) Ваш вагон с 11 по 12? - допустим нет.

4) Ваш вагон 9? - если да, то мы знаем что родственник в 9-м вагоне, если нет, то в 10-м.

Итак мы видим, что максимальное количество "да-нет - вопросов" составляет 4. Поэтому и информации в сообщении, которое уменьшает исходную неопределенность в 16 раз содержится ровно 4 бита - по максимальному числу вопросов.

Формула Хартли

Существует формула, которая связывает информационный объем сообщения (i) с количеством исходных неопределенностей (N) знания. Эта формула называется главной формулой информатики или формулой Хартли:

N - это число исходных неопределенностей, а i - информационный объем сообщения в битах.

Расчитаем информационный объем сообщения о падении монеты :

N = 2 - количество исходных неопределенностей. Подставляем вместо N двойку в формулу Хартли и получаем 2 = 2i. Отсюда видно, что i = 1 бит. Как мы и говорили в начале урока.

Применим формулу Хартли к случаю с поездом: N = 16 - исходное количество неопределенностей. Подставив N в формулу Хартли имеем:

16 = 2   отсюда получаем, что i = 4. Т.е. мы пришли к тому же самому результату.

Вопросы для самоконтроля:

1. Сколько неопределенностей было до бросания монеты, до бросания игральной кости, до получения сообщения, что друг едет в одном из 10 вагонов?

2. Какое сообщение содержит больше информации: "Монета упала орлом вверх" или "игральная кость выпала шестеркой вверх"? Почему?

3. Какой объем информации содержит сообщение, что ученик получил за тест "4", если исходно он мог получить любую из оценок: "2", "3", "4", "5"?

 

п. 2   Производные единицы информации

Минимальная единица измерения информаци - 1 бит.

Но 1 бит - это настолько маленькая единица измерения, что она нигде не используется. В реальности в компьютерной технике минимальной единицей измерения информации является 1 байт

1байт = 8 бит

Первые компьютеры имели устройства памяти, в которых объем каждой ячейки составлял 1 байт. 1 байт в компьютерной технике называется "машинное полуслово";

В современных компьютерах ячейка памяти составлят 2 байта ("машинное слово") или 4 байта ("двойное слово").

А в чем измеряется объем компьютерной памяти целиком, а не одной отдельной ячейки?

Вся память целиком измеряется в Килобайтах, мегабайтах, гигабайтах и терабайтах - это "производные" единицы от базовой единицы - от 1-го бита.

Разберемся что такое 1 килобайт:

Для простоты вспомним, что такое 1 килограмм. 1 килограмм - это 1000 грамм.

Казалось бы и 1 килобайт должен равняться 1000 байт. Но дело в том, что цифра 1000 - она жестко связана именно с десятичной системой и равна числу

В десятичной системе число 10 является основанием системы.

10 возведенному в 3-ю степень : 1000 = 103.

 

Но компьютер никак не связан с привычной нам десятичной системой, т.к. он понимает только двоичную систему, в которой только две цифры: 0 и 1.

В двоичной системе основание системы - число 2

Так как в двоичной системе основание системы - это число 2, то когда мы говорим слово "килобайт", то должны учитывать, что это число, хотя и должно быть примерно равно 1000, но должно быть жестко связано с основанием системы, т.е. числом 2. Нетрудно подсчитать, что ближайшим числом близким к 1000 и являющимся степенью числа 2 является число 1024 = 210.

Теперь мы можем уверенно записать:

1 килобайт (1 Кб) = 1024 байт = 210 байт.

По аналогии можно записать и следующие единицы информации:

1 мегабайт (1 Мб) = 1024 килобайта = 210 килобайта = 210*210 байта = 220 байта.

1 гигабайт (1Гб) = 1024 мегабайта = 210 мегабайта = 210*210 килобайта = 210*210*210 байта = 230 байта.

Итак:

1 Кб = 1024 б

1 Мб = 1024 Кб

1 Гб = 1024 Мб

п.3   Алфавитный подход к измерению информации

Рассмотренный выше "количественный" подход к измерению информации оказался совершенно неподходящим для использования в вычислительной технике. У него два существенных недостатка:

1. Одно и то же сообщение , имеющее один и тот же информационный вес, например 1 бит, может быть записан разными способами. Это неприемлимо в компьютерной технике, т.к. техника "любит" точность и однозначность.

2. Одно и то же сообщение, для одного человека может иметь какой-то информационный вес, например 1 бит, а для другого никакой информации оно не будет содержать. (Например, для человека не владеющего русским языком сообщение: "Монет упала орлом вверх" не несет никакой информации). Это также не допустимо с точки зрения техники.

Эти 2 недостатка заставили разработать более конкретный способ измерения информации, который получил название "алфавитный" подход.

В чем же смысл алфавитного подхода? Все очень просто и логично: каждое сообщение состоит из букв, а иногда из букв и цифр. Так как каждая буква или цифра будет занимать в памяти компьютера какое-то место, значит она имеет какой-то конкретный информационный объем. Давайте выясним какой информационный вес будет иметь буква русского алфавита.

В компьютере все знаки кодируются в двоичном коде, в котором только две цифры: 0 и 1.

В русском алфавите 33 буквы, следовательно чтобы каждую букву закодировать двоичным кодом необходимо сначала рассчитать сколько бит потребуется для кодирования 1 буквы. 

1. Предположим, что каждую букву кодируем одним битом: либо 0, либо 1. Это значит, что мы сможем закодировать только две буквы, например А и Б.

2. Предположим, что каждую букву кодируем двумя битами: 00, 01, 10 и 11 - уже можем закодировать 4 буквы (например: А,Б,В и Г). Нас это не устраивает.

3. Добавляем еще один бит на букву: 000, 001,010,011, 100, 101,110, 111 - уже 8 букв, например А,Б,В,Г,Д,Е,Ж,З.

Не будем продолжать дальше рассуждения, а сразу скажем, что для кодирования всех 33 букв потребуется как минимум 6 битов на одну букву.

Т.е., если наш алфавит состоит только из 33 знаков, то информационный объем одной буквы равен 6 бит.

В реальной жизни кодировать приходится не только 33 буквы алфавита, но еще нужно учесть, что кроме 33 прописных нужно закодировать 33 заглавных буквы, кроме русских букв существуют еще прописные и заглавные латинские (английские) буквы, также нужно обязательно закодировать 10 цифр, более 50 всевозможных символов (знаки умножения, точку, запятую, +, - , и т.д.). Если учесть все эти символы, то наш алфавит разрастется до более 200 символов. Производители компьютеров посчитали целесообразным за оптимальный размер алфавита выбрать 256 символов (чтобы был небольшой запас пустых символов на случай появления новых знаков), и, следовательно для кодирования одного символа потребуется 8 битов (или 1 байт).

Интересно, но количество символов алфавита (N) и информационный объем одного символа (i) связан той же самой формулой Хартли:

Если N = 256, то i - информационный объем каждого символа алфавита равен 8 (битов).

Запомните! Количество символов алфавита называется "Мощностью алфавита".

Решение задачи:

Расчитать информационный объем сообщения: "Монета упала орлом вверх." применяя алфавитный подход, и считая, что информационный объем одного символа равен 8 бит (1 байт).

Решение: Необходимо подсчитать количество всех символов в сообщении, включая пробелы и точку и умножить на информационный объем одного знака:

25*8 = 200 бит

Вопросы для самоконтроля:

4. Каковы 2 недостатка "количественного" подхода к измерению информации?

5. Как расчитать информационный объем одного символа алфавита -i в битах, если известна мощность N - алфавита?

Пройти онлайн-тест по теме "Количество информации"


article

Авторизация
Логин:
Пароль:

Добро пожаловать,
гость сайта!

Статистика по сайту:

Сегодня сайт уже посетили 304 чел.

Количество всех статей на сайте: 464.

Количество online-тестов: 210.