Разработка урока по информатике на тему: "Измерение информации"
план-конспект урока по теме

Венедиктова Ольга Николаевна

 

Урок 2. Информация и её свойства. Измерение информации

Цели: освоить основные подходы к измерению информации формулу вычисления количества информации; уметь решать задачи на нахождение количества информации с помощью алфавитного и содержательного подходов; иметь представление обо всех способах нахождения количества информации.

Методические рекомендации. Решение задач на нахождение количества информации позволяет не только освоить методы количественного описания информации, но и способствует развитию навыков отбора оптимальных средств для решения жизненных задач. 

Скачать:

ВложениеРазмер
Файл urok_2-1.docx712.26 КБ

Предварительный просмотр:

Глава 1. Информация и информационные процессы


Урок 2. Информация и её свойства. Измерение информации

Цели: освоить основные подходы к измерению информации формулу вычисления количества информации; уметь решать задачи на нахождение количества информации с помощью алфавитного и содержательного подходов; иметь представление обо всех способах нахождения количества информации.

Методические рекомендации. Решение задач на нахождение количества информации позволяет не только освоить методы количественного описания информации, но и способствует развитию навыков отбора оптимальных средств для решения жизненных задач.

Урок сопровождается презентацией, к данной теме и учебным диском.

Ход урока

  1. Организационный момент
  2. Теоретический материал урока
  1. Информация и её свойства

Возможность эффективного использования информации обусловливается ее качественными характеристиками или свойствами:

  1. понятность. Информация должна быть понятной всем участникам обмена информацией. Например, человек — существо социальное, для общения с другими людьми должен обмениваться ими информацией, причем обмен информацией всегда происходит на определенном языке (русском, английском и т.д.), поэтому участники дискуссии должны владеть тем языком, на котором ведется общение;

достоверность. Информация должна быть достоверной, т.е. она должна отражать истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т.е. перестает отражать истинное положение дел;

  1. полнота. Информация должна быть полной, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений и может повлечь ошибки;
  2. ценность. Ценность информации зависит ос того, насколько важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека;

своевременность. Информация должна быть своевременной — только в этом случае она может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации, когда она еще не может быть усвоена, так и подача информации с задержкой.

  1. Измерение информации. Вероятностный метод измерения информации

Для того чтобы рассмотреть участие информации в информационном процессе, необходимо ввести количественные характеристики информации, т.е. научиться ее измерять.

В теоретической информатике информация рассматривается как знания, т.е. процесс систематического научного познания окружающего мира приводит к накоплению информации в виде знаний (научных теорий, фактов и т.д.).

Процесс познания можно наглядно изобразить в виде расширяющегося круга знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек и чем шире круг его знаний, тем больше он ощущает недостаток знании и тем больше граница его незнания, мерой которого в этой модели является длина окружности.

Например, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника или пятиклассника, однако и граница его незнания также существенно больше. Действительно, первоклассник совершенно ничего не знает о законах физики, химии или экономики и его это не смущает, тогда как выпускник школы, например, при подготовке к экзамену по физике может обнаружить, что есть законы, которых он не знает или не понимает. Можно считать, что ученик, получая информацию, уменьшает неопределенность знания (расширяет круг знания). Подход к информации как к мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики, учитывая, что она имеет дело с процессами передачи и хранения информации.

Информацию можно рассматривать как набор сообщений.


  Сообщение — это форма представления каких-либо сведений в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т. п.


Сообщение, в свою очередь, состоит в возможности наступления некоторых событий, каждое из которых может иметь свою вероятностную характеристику, т. е. степень возможности наступления этого события.

Пример 1. В закрытом ящике лежат два шара — черный и белый. Вытаскиваем один шар. Перед вытаскиванием существовала неопределенность нашего знания, так как возможны два события: «черный шар» или «белый шар». После того как шар вытащен, наступает полная определенность: событие «черный шар», тогда в ящике остался белый, и наоборот.

Вытаскивание одного из двух шаров приводит к уменьшению неопределенности нашего знания в 2 раза.

Рассмотрим понятие «вероятность».

Если N — это общее число возможных исходов какого-то процесса (например, вытаскивание шара), а из них интересующее нас событие (например, вытаскивание белого шара) может произойти k раз, то вероятность этого события р можно определить по формуле

р = k/N

Вероятность выражается в долях единицы. Для примера 1 вероятность вытаскивания, как белого, так и черного шара равна 1/2, т.е. они равновероятны.

Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар); вероятность невозможного события равна 0 (из 50 белых шаров вытащен черный шар).

Пример 2. В ящике лежат четыре шара — три черных и один белый. Вытаскиваем один шар. Его цвет, скорее всего, будет черным, но может быть и белым.

Посчитаем вероятность вытаскивания белого и черного шара:

pбел = 1/4 = 0,25;    pчерн = 3/4 = 0,75.

Информация содержится в сообщении о цвете вытащенного шара. Какая информация в примере 2 ценнее: «белый шар» или «черный шар»? Конечно, информация о том, что вытащили белый шар, т.е. этим сообщением получено полное знание, что в коробке остались только черные шары.

Информация о том, что вытащили черный шар, тоже уменьшает неопределенность знания (после этого события в ящике осталось три шара — один белый и два черных), но не дает полного знания, какой шар может быть вытащен следующим.

Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем / выражается формулой

i = log2(1/p),                                                               (1)

или

2i = 1/р                                                                       (2)

Если событие достоверно, его вероятность равна 1, то оно не информативно, т.е. количество информации в нем равно 0, но чем меньше вероятность какого-то события, тем большую ценность имеет информация об этом событии и тем больше будет значение i.

Единицей измерения количества информации является бит (от англ, bit — binary digit — двоичная цифра).


  1 бит — количество информации, необходимой для различения двух равновероятных событий.


Вернемся к примеру 1.

Пусть х — количество информации в сообщении о том, что вытащен белый шар. Тогда

2х = 1/0,5 => 2х = 2 => х = 1 бит,

т. е. мы доказали, что сообщение об одном событии из двух равно вероятных несет 1 бит информации.

Количество информации можно рассчитать методами Р.Хартли и К. Шоннона.

Формула Р.Хартли:

i = log2N.

Американский инженер Р.Хартли в 1928 г. рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации i, содержащейся в выбранном сообщении, определял как двоичный логарифм N.

Допустим, нужно угадать одно число из набора чисел от 1 до 100. По формуле Р.Хартли можно вычислить, какое количество информации для этого требуется:

i=log2100 = 6,644.

Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 бит. Приведем другие примеры равновероятных сообщений:

  1. при бросании монеты: «выпала решка», «выпал орел»;
  2. на странице книги: «число букв четное», «число букв нечетное».

Определим теперь, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский ученый К.Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона:


i=-p1log2p1+p2log2p2+…….+ pNlog2pN


где рi, — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Заметим, что если вероятности р1 ... , pN равны, то каждая из них равна I/N и формула К.Шеннона превращается в формулу Р.Хартли.

Помимо двух рассмотренных подходов к определению количества информации существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями.

Пример 3. В мешке лежат 64 монеты. Сообщение о том, что достали золотую монету, несет 4 бит информации. Сколько золотых монет было в мешке?

Дано: N= 64; iзол=4.

Найти: k зол.

Сообщение о том, что достали золотую монету, несет 4 бит информации, следовательно:

24 = 1/pзол - Отсюда можно найти вероятность вытаскивания золотой монеты:

pзол= 1/16.

С другой стороны, pзол = kзол/N, следовательно, kзол = N*pзол = 64/16 = 4.

Ответ: число золотых монет — 4.

  1. Закрепление изученного материала

Самостоятельно решить задачу и объяснить результат.

Пример 4. В ящике лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?

Дано: kчерн.= 8;  kбел. = 24.

Найти: iчерн.

N = kбел + kчерн = 32;

pчерн = kчерн / N = 8/32 =1/4;

2iчерн = 1/рчерн = 4;

iчерн = 2 бит.

Ответ: сообщение о том, что достали черный шар, несет 2 бит информации.

  1. Подведение итогов урока
  1. Из-за сложности понятия информация существуют различные подходы к измерению информации.
  2. Наиболее популярными являются содержательный, алфавитный (будет рассмотрен на следующем уроке) и вероятностный подходы.
  3. В содержательном подходе рассматривается информативность равновероятностных событий.


По теме: методические разработки, презентации и конспекты

Конспект урока по Информатике ФГОС "Человек и информация" с элементами робототехники, Н.В.Матвеева, 3 класс

Конспект урока по информатике для 3 класса по программе Н.В. Матвеевой построен в соответствии с требованиями ФГОС. Урок содержит практическую работу по изучению работы датчиков Lego WeDo....

Методическая разработка урока по информатике по теме: «Технологии обработки текстовой информации. Создание многостраничного документа»

Методическая разработка урока по информатике по  теме: «Технологии обработки текстовой информации. Создание многостраничного документа»...

Методическая разработка урока " Практическое занятие по информатике. Кодирование графической информации"

Методическая разработка урока " Практическое занятие по информатике. Кодирование графической информации"...

Методическая разработка открытого урока по дисциплине Информатика по теме "Представление информации в разных системах счисления"

Методическая разработка открытого урока по дисциплине Информатика по теме "Представление информации в разныз системах счисления"...

Методическая разработка урока по информатике

В этом уроке рассмотрены действия с текстом, приёмы и средства автоматизации работы сдокументом, работа со стилями, с темами и создание автоматического оглавления...