Конспект урока информатики в 10 классе «Определение количества информации»
план-конспект урока по информатике и икт (10 класс)

Быстрова Юлия Владимировна

Конспект урока информатики в 10 классе  «Определение количества информации»

Скачать:

ВложениеРазмер
Microsoft Office document icon hod_uroka.doc68 КБ
Файл izmerenie_informatsii.pptx611.78 КБ

Предварительный просмотр:

Урок информатики в 10 классе

Тема: «Определение количества информации»

Цель: ввести понятие «количество информации»; сформировать у учащихся понимание вероятности, равновероятных событий, неравновероятных событий; научить находить количество информации.

Ход урока

I. Постановка целей урока

  1. Вы можете передать другу килограмм конфет, получить у продавца 3
    метра ткани, передать брату немного своего тепла. А как получить, или
    передать некоторое количество информации?
  2. «Орел» и «решка». В чем заключено больше информации?
  3. Игра «Угадай число». Как угадать число на наименьшее количество
    попыток?

П. Проверка домашнего задания

  • Что такое код? Где и почему он используется?
  • Как в вычислительной технике кодируется информация? Почему

именно так?

  • Что такое бит?
  • Сколько разных вариантов информации можно закодировать 7 битами?

-        Сколько нужно бит, чтобы закодировать 25 различных событий?

III. Изложение нового материала

1. Введение понятия «количество информации»

Мы с вами говорили о том, что в основе нашего мира лежат три составляющие — вещество, энергия и информация. А как много в мире вещества, энергии и информации.

  • Можно ли измерить количество вещества и как именно? (Вещество
    можно взвесить (в килограммах, гаммах и т.д.) на весах, определить его
    длину (в сантиметрах, в метрах и т.д.) с помощью линейки; найти его
    объем, применив соответствующие измерения и т.д.)
  • Можно ли определить количество энергии? (Можно, например, найти
    количество тепловой энергии в Дж, электроэнергии в кВт/ч, и т.д.)
     -        Можно ли измерить количество информации и как это сделать? (Полного и правильного ответа на этот вопрос учащиеся не дадут.)

Оказывается, информацию также можно измерять и находить ее количество.

Существуют два подхода к измерению информации.

Один из них называется содержательный или вероятностный. Из названия подхода можно сделать вывод, что количество информации зависит от ее содержания.

Упражнение 1 (устно)

Определите количество информации в следующих сообщениях с позиции «много» или «мало».

  1. Столица России — Москва.
  2. Сумма квадратов катетов равна квадрату гипотенузы.
  3. Дифракцией света называется совокупность явлений, которые обусловлены волновой природой света и наблюдаются при его распространении в среде с резко выраженной оптической неоднородностью.
  4. Эйфелева башня имеет высоту 300 метров и вес 9000 тонн.
    Пояснение: попросите учеников пояснять ответы, задавая им наводящие
    вопросы о том, содержит ли сообщение новые и понятные сведения.

Сообщение несет больше информации, если в нем содержатся новые и понятные сведения. Такое сообщение называется информативным. Необходимо различать понятия информация и информативность.

Содержит ли информацию учебник физики за 10 класс? (Да).

Для кого он будет информативным — для ученика 10 класса или 1 класса? (Для ученика 10 класса он будет информативным, так как в нем со
держится новая и понятная ему информация, а для ученика 1 класса она
информативной не будет, так как информация для него непонятна.)

Вывод: количество информации зависит от информативности.

Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно. Количество информации в информативном сообщении больше нуля.

Но информативность сообщения сама по себе не дает точного определения количества информации. По информативности можно судить только о том, много информации или мало.

2. Введение понятия вероятностного подхода в измерении информации

Рассмотрим понятие информативности с другой стороны. Если некоторое сообщение является информативным, следовательно, оно пополняет нас знаниями или уменьшает неопределенность наших знаний. Другими словами сообщение содержит информацию, если оно приводит к уменьшению неопределенности наших знаний.

Рассмотрим пример.

Пояснение: пример можно продемонстрировать практически.

Мы бросаем монету и пытаемся угадать, какой стороной она упадет на поверхность. Возможен один результат из двух: монета окажется в положении «орел» или «решка». Каждое из этих двух событий окажется равновероятным, т.е. ни одно из них не имеет преимущества перед другим.

Перед броском монеты мы точно не знает, как она упадет. Это событие предсказать невозможно, т.е. перед броском существует неопределенность нашего знания (возможно одно событие из двух). После броска наступает полная определенность знания, т.к. мы получаем зрительное сообщение о положении монеты. Это зрительное сообщение уменьшает неопределенность нашего знания в два раза, т.к. из двух равновероятных событий произошло одно.

Если мы кидаем шестигранный кубик, то мы также не знаем перед броском, какой стороной он упадет на поверхность. В этом случае, возможно получить один результат из шести равновероятных. Неопределенность знаний равна шести, т.к. именно шесть равновероятных событий может произойти. Когда после броска кубика мы получаем зрительное сообщение о результате, то неопределенность наших знаний уменьшается в шесть раз.

Упражнение 2 (устно)

Еще один пример. На экзамен приготовлено 30 билетов.

  • Чему равно количество событий, которые могут произойти при вытягивании билета? (30)
  • Равновероятны эти события или нет? (Равновероятны.)
  • Чему равна неопределенность знаний ученика перед тем как он вытянет билет? (30)
  • Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? (В 30раз.)
  • Зависит ли этот показатель от номера вытянутого билета? (Нет, т.к. события равновероятны.)

А каким может быть самое маленькое количество информации? Вернемся к примеру с монетой. Предположим, что у монеты обе стороны «орел».

Существует ли неопределенность знаний пред броском в этом случае?
Почему?
(Нет, так как мы заранее знаем, что выпадет в любом случае
«орел».)    

Получите вы новую информацию после броска? (Нет, так как ответ
мы уже знали заранее.)

Будет ли информативным сообщение о результате броска? (Нет, так
оно не принесло новых и полезных знаний.)

Чему равно количество информации в этом случае? (Нулю, т.к. оно неинформативно.)

Вывод: мы не получаем информации в ситуации, когда происходит одно событие из одного возможного. Количество информации в этом случае равно нулю. Для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных. Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.

С понятием «бит» вы познакомились на прошлом уроке.

Вспомните его.

Итак, с помощью битов информация кодируется. С точки зрения кодирования с помощью 1 бита можно закодировать два сообщения, события или два варианта некоторой информации. С точки зрения вероятности 1 бит — это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных. Согласитесь, что эти два определения не противоречат друг другу, а совершенно одинаковы, но просто рассмотрены с разных точек зрения.

Еще одно определение 1 бита:

1 бит это количество информации, уменьшающее неопределенность знаний в два раза.

Существует  формула, которая связывает между собой количество возможных событий и количество информации.

N = 2i; где N - количество возможных вариантов,

I — количество информации.

Если из этой формулы выразить количество информации, то получится

1        = log2N.

Как пользоваться этими формулами для вычислений:

  • если количество возможных вариантов N является целой степенью
    числа 2, то производить вычисления по формуле N = 2
    1 достаточно
    легко. Вернемся к примеру: N = 32; —> I = 5, т.к. 32 = 2
    5;
  • если же количество возможных вариантов информации не является
    целой степенью числа 2, т.е. если количество информации число вещественное, то необходимо воспользоваться калькулятором или следующей таблицей.

Количество информации в сообщении об одном из N равновероятных событий: I = log2N.

N

1

 2

 3

 4

5

 6

 7

 9 10 II 12 13 14 15 16

  • I
  • 0,00000 1,00000 1,58496 2,00000 2,32193 2,58496 2,80735 3,00000 3,16993 3,32193 3,45943 3,58496 3,70044 3,80735 3,90689 4,00000
  • N

17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

  • I

4,08746 4,16993 4,24793 4,32193 4,39232 4,45943 4,52356 4,58496 4,64386 4,70044 4,75489 4,80735 4,85798 4,90689 4,95420 5,0000

  • N

33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

  • I
  • 5,04439 5,08746 5,12928 5,16993 5,20945 5,24793 5,28540 5,32193 5,35755 5,39232 5,42626 5,45943 5,49185 5,52356 5,55459 5,58496
  • N

49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64

  • I

5,61471 5,64386 5,67243 5,70044 5,72792 5,75489 5,78136 5,80735 5,83289 5,85798 5,88264 5,90689 5,93074 5,95420 5,97728 6,00000

1.        Какое количество информации будет получено при отгадывании числа из интервала:

-        от 1 до 64        - от 1 до 61

—        от 1 до 20.

2.        Какое количество информации будет получено после первого хода в
игре «крестики-нолики» на поле:

-3x3        -4x4.

3.        Сколько могло произойти событий, если при реализации одного из них получилось 6 бит информации.

3. Неравновероятные события

На самом деле рассмотренная нами формула является частным случаем, так как применяется только к равновероятным событиям. В жизни же мы сталкиваемся не только с равновероятными событиями, но и событиями, которые имеют разную вероятность реализации.

Например:

Когда сообщают прогноз погоды, то сведения о том, что будет дождь,
более вероятно летом, а сообщение о снеге — зимой.

Если вы - лучший ученик в классе, то вероятность сообщения о том,
что за контрольную работу вы получили 5, больше, чем вероятность
получения двойки.

Если на озере живет 500 уток и 100 гусей, то вероятность подстрелить
на охоте утку больше, чем вероятность подстрелить гуся.

Если в мешке лежат 10 белых шаров и 3 черных, то вероятность до
стать черный шар меньше, чем вероятность вытаскивания белого.

Если одна из сторон кубика будет более тяжелой, то вероятность вы
падения этой стороны будет меньше, чем других сторон.

Упражнение 5 (устно)

Приведите примеры событий с разной вероятностью, несколько примеров запишите в тетрадь.

Как вычислить количество информации в сообщении о таком событии?

Для этого необходимо использовать следующую формулу.

I = Iog2(l/p), где I — это количество информации, р — вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле:

р = К / N, где К — величина, показывающая, сколько раз произошло интересующее нас событие, N - общее число возможных исходов какого-то процесса:

IV. Закрепление изученного

№1

Пояснение: так как дети еще не умеют вычислять значения логарифмической функции, то можно использовать при решении задач этого урока следующие приемы:

Дать им готовые ответы.

Ответы давать примерные, задавая ученикам следующий вопрос: « В
какую степень необходимо возвести число 2, чтобы получилось чис
ло, стоящее под знаком логарифма?»

Не стоит на этом уроке учить работать с приложением Калькулятор,
так как этот урок не является уроком решения задач.

В мешке находятся 20 шаров. Из них 15 белых и 5 красных. Какое количество информации несет сообщение о том, что достали: а) белый шар; б) красный шар. Сравните ответы.

Решение:

Найдем вероятность того, что достали белый шар: р6 = 15 / 20 = 0,75;

Найдем вероятность того, что достали красный шар: р  = 5 / 20 =
0,25.

Найдем количество информации в сообщении о вытаскивании бело
го шара: I
6 = log (1/ рб) = log( 1/0,75) = log2l,3 =1,15470 бит.

Найдем количество информации в сообщении о вытаскивании красного шара: 1к = log (1/ рк) = log( 1/0,25) = Iog24 = 2 бит.

Ответ: количество информации g сообщении о том, что достали белый шар, равно 1,1547 бит. Количество информации в сообщении о том, что достали красный шар, равно 2 бит.

При сравнении ответов получается следующая ситуация: вероятность вытаскивания белого шара была больше, чем вероятность вытаскивания красного шара, а информации при этом получилось меньше. Это не случайность, а закономерная, качественная связь между вероятностью события и количеством информации в сообщении об этом событии.

№2

В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вычислите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.

-        Являются ли события равновероятными? Почему? (Нет, т.к. количество кубиков разное.)

-        Какую формулу будем использовать для решения задачи? (/ = log/1/N)
Решение:

Всего кубиков в коробке N = 10 + 8 + 5 + 12 = 35.

Найдем вероятности: рк = 10 / 35 « 0,29,
рз = 8 / 35 = 0,22,

рс= 12/35 = 0,34,

рж = 5/35 = 0,14.        

3.        Найдем количество информации:

1к = Iog2( 1/0,29) = Iog23,4 = 1,85695 бит, Ic = Iog2( 1/0,34) = Iog22,9 = 1,71498 бит, 1з = Iog2( 1/0,22) = Iog24,5 = 2,132007 бит, 1ж = Iog2(l/0,14) = Iog27,l = 2,672612 бит.

Сравните количества информации.

Ответ: наибольшее количество информации мы получим при доставании желтого кубика по причине качественной связи между вероятностью и количеством информации.

V. Итоги урока

Домашнее задание


Предварительный просмотр:


Подписи к слайдам:

Слайд 1

Измерение информации Содержательный подход

Слайд 2

Два подхода к измерению информации Можно измерять количество информации в контексте компьютерного представления информации такой подход называется "алфавитным". Он не связан с содержанием текста. Содержательный подход подразумевает оценку содержания полученной информации с точки зрения ее полезности. При этом под полезной частью информации понимается та часть сообщения, которая снимает полностью или уменьшает существовавшую до ее получения неопределенность какой-либо ситуации.

Слайд 3

Клод Шеннон. Шеннон ( Shannon ) Клод Элвуд (1916—2001), американский ученый и инженер, один из со­здателей математической теории информации. Окончил Мичиганский университет (1936 г.). В 1941—1957 гг. — сотрудник ма­тематической лаборатории ком­пании " Bell System ". С 1941 г. — советник национально-исследова­тельского комитета Министерства обороны США. С 1957 г. — про­фессор электротехники и математики Массачусетского технологического института. С 1956 г. — член национальной Академии наук США и Американской академии искусств и наук. Основные труды по алгебре логики, теории релейно-контактных схем, математической теории связи, информации и кибернетике. Сочинения в русском переводе: Работы по теории информации и кибернетике. М., 1963

Слайд 4

Столица России — Москва. Сумма квадратов катетов равна квадрату гипотенузы. Дифракцией света называется совокупность явлений, которые обусловлены волновой природой света и наблюдаются при его распространении в среде с резко выраженной оптической неоднородностью. Эйфелева башня имеет высоту 300 метров и вес 9000 тонн.

Слайд 5

Сообщение несет больше информации, если в нем содержатся новые и понятные сведения. Такое сообщение называется информативным. Количество информации зависит от информативности. Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно. Количество информации в информативном сообщении больше нуля.

Слайд 6

Если некоторое сообщение является информативным, следовательно, оно пополняет нас знаниями или уменьшает неопределенность наших знаний. Другими словами сообщение содержит информацию, если оно приводит к уменьшению неопределенности наших знаний.

Слайд 7

Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту . 1 бит — это количество информации, уменьшающее неопределенность знаний в два раза.

Слайд 8

Существует формула, которая связывает между собой количество возможных событий и количество информации. N=2 i Где N – количество возможных вариантов, I = количество информации

Слайд 9

Не равновероятные события I = Iog 2 ( l / p ), где I — это количество информации, р — вероятность события. Вероятность события выражается в долях единицы и вычисляется по формуле: р = К / N , где К — величина, показывающая, сколько раз произошло интересующее нас событие, N - общее число возможных исходов какого-то процесса.


По теме: методические разработки, презентации и конспекты

Конспект урока информатики «Обработка текстовой и графической информации» 5 класс

Конспект урока информатики Тема: «Обработка текстовой и графической информации» Класс: 5 класс Учитель: Муксинова О.Н. Цели урока: Образовательные: • формирование представления о комбиниров...

План-конспект урока информатики по теме "Обработка графической информации"

Класс: 6Организационная форма урока: рассказ-беседа с последующим выполнением проекта....

План-конспект урока "Алфавитный подход к определению количества информации"

План-конспект урока информатики  "Алфавитный подход к определению количества информации" в 8 классе с использованием ЭОР...

Конспект урока информатики в 5 классе "Поиск информации"

Конспект урока информатики в 5 классе "Поиск информации"Задачи: сформировать представления о круге задач, связанных с поиском информации; сформировать практические навыки поиска информации в...

Конспект урока информатики в 5 классе "Систематизация информации"

Данный урок проводился в рамках Дня открытых дверей школы 7 апреля 2017 года...

конспект урока информатики в 7 классе "Измерение информации. Единицы измерения информации"

Измерение информации. Единицы измерения информации.УУД:Регулятивные: принятие учебной цели, планирование, организация, контроль учебного труда.Познавательные: умения и навыки организаци...

План-конспект урока информатики в 7 классе "Представление информации"

Планируемые образовательные результаты: предметные – обобщённые представления о различных способах представления информации; метапредметные – понимание общепредметной сущности понятия &laq...