Лекция по теории вероятностей
учебно-методическое пособие по алгебре (7, 8, 9, 10, 11 класс) на тему

Говорова Нина Германовна

Подборка теоретического материала для изучения теории вероятностей

Скачать:

ВложениеРазмер
Microsoft Office document icon лекция по теории вероятностей501.5 КБ

Предварительный просмотр:

ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

Изучая различные явления в окружающем нас мире, мы видим, что многие из них носят случайный характер - в том смысле, что по однократному наблюдению нельзя точно предсказать, как то или иное явление будет протекать при повторном наблюдении. Так, при посадке одного дерева нельзя быть уверенным, что оно приживется. Посеянное зерно может дать всходы, а может и не взойти. Если единожды метать жребий, то невозможно достоверно предсказать, что выпадет: орел или решка!

Однако, если повторять наблюдение много раз, то можно заметить закономерность того или иного исхода испытаний, и часто появляется возможность описать его количественно, то есть с помощью чисел. При подбрасывании монеты отношение числа выпадений аверса или реверса к общему числу метаний мало отличается от ;  при этом, чем больше испытаний, тем ближе это отношение к половине. О результатах подобных наблюдений говорят, что они обладают статистической устойчивостью.

Математические модели для описания случайных событий, которые могут быть воспроизведены при неизменных условиях сколь угодно раз и которые при этом обладают свойством статистической устойчивости, изучаются в разделе математики, носящем название теории вероятностей.

Приступая к построению модели, обычно принимают во внимание главные, наиболее существенные особенности изучаемого явления или процесса, сбрасывая со счетов те частности, которые на данном уровне исследования представляются второстепенными. Так поступают, например, изучая сельскохозяйственные процессы, в которых действуют многочисленные факторы, взаимосвязанные между собой и скрытые от глаз наблюдателя. А при уже упомянутом метании монеты ограничиваются только двумя альтернативными исходами - скажем, возможности падения монеты на ребро или ее исчезновения вовсе не рассматриваются. Вообще, различные предположения, допущения и исключения, как правило, оговариваются особо в каждой конкретной задаче, что и будет в дальнейшем показано на примерах.

Изучив Приложение, студент должен

знать:

классическое определение вероятности;

формулу полной вероятности и формулу Байеса;

законы распределения – в частности, геометрический и биномиальный;

математическое ожидание и дисперсию,

уметь:

вычислять вероятность событий по классическому определению;

применять формулу полной вероятности и формулу Байеса;

при заданном законе распределения определять математическое         ожидание, дисперсию и среднеквадратическое отклонение,

владеть: техникой решения вышеназванных задач

§1.Классическое определение вероятности

Элементы комбинаторики

Воздадим должное видным математикам прошлых веков, стоявших у истоков теории вероятностей. Первую лепту внесли француз Блез Паскаль, поставивший и решивший такую задачу: «Сколько раз надо подбросить две игральные кости, чтобы вероятность выбросить две шестерки была больше половины?», голландец Гюйгенс трактатом: «О расчетах в игре в кости» (1657) и Якоб Бернулли трактатом «Искусство предположения» (1713). Их имена и поныне сохранились в названиях формул и теорем.

В те времена стимулом развития этой науки было, в основном, желание выигрывать в азартные игры. В наше время задачи такого рода, в частности, карточные, рассматриваются как учебные, традиционно служащие введением в современную теорию вероятностей.

Для понимания основ данного предмета необходимы некоторые сведения из теории соединений. Напомним основополагающие определения из теории соединений, называемой также комбинаторикой.

Пусть дано множество, состоящее из п элементов.

Определение 1. Перестановкой из п элементов называется всякое расположение этих элементов в определенной последовательности,

Отвлекаясь от предметной сути, чаще всего элементы множества обозначают натуральными числами. Например, при п=3: {1, 2, 3}. Из элементов этого множества можно составить шесть различных перестановок: (1,2,3); (1,3,2); (2,3,1); (2,1,3); (3,1,2); (3,2,1).

Число всех перестановок при произвольном п обозначают.   Покажем, как найти это число. Будем составлять всевозможные перестановки. Очевидно, имеется п различных вариантов выбора первого (крайнего левого) элемента. Вслед за ним на вторую позицию можно поставить любой из оставшихся   элементов. Следовательно, первую упорядоченную пару элементов можно выбрать различными способами. Третьим элементом может служить любой из оставшихся  элементов, поэтому всего существует  различных первых троек. Продолжая процесс, то есть на каждом шаге присоединяя (справа) к уже построенному набору новый элемент из числа еще не выбранных, в итоге приходим к тому, что на последнем шаге к построенному набору присоединяется единственный элемент. Таким образом, число разных перестановок из п элементов равно произведению  (читается «эн-факториал»). Приходим к формуле числа перестановок:

 

В приведенном примере  Наряду с перестановками, важную роль в теории вероятностей (и в других разделах математики) играют сочетания. В этом понятии одновременно используются не все n элементов, а только  из них (п).

Определение 2. Всякий набор  элементов из п (независимо от их взаимного расположения) называется сочетанием из п по .

Возвращаясь к рассмотренному примеру, перечислим всевозможные сочетания из 3 по 2: (1,2); (1,3); (2,3).                                  

Число всех различных сочетаний из п по к обозначается  Можно доказать, что оно определяется формулой:

        В частности,  

События и их классификация

Прежде всего, остановимся на некоторых важных первичных понятиях теории вероятностей .

Испытание — это осуществление определенного комплекса условий, при которых производится наблюдение. Будем предполагать, что испытание может быть воспроизведено сколь угодное число раз. Испытаниями являются метание монеты, стрельба по мишени, бросание игральной кости.

Результат, или  исход, испытания называется событием. Событиями являются: выпадение орла или решки, попадание в цель или промах, появление того или иного числа очков на брошенной игральной кости.

Для обозначения событий используются большие буквы латинского алфавита: А, В, С..

Два события  называются совместными, при данном испытании, если появление одного из них не исключает появление другого, и несовместными, если появление одного из них исключает появление другого. Например, при однократном бросании  игральной кости. выпадение четырех очков (событие А) и  выпадение четного числа очков(событие B) – совместимые события, а выпадение пяти очков (событие C) и число очков, кратного трем (событие D) – несовместные.

Два несовместных события, исчерпывающие все множество возможных событий, называются противоположными (обозначения А и ). При однократном бросании монеты если  А – выпадение орла, то  – выпадение решки.

Событие называется достоверным, если при данном испытании оно происходит наверняка, и невозможным, если в этих условиях оно заведомо не может произойти. Заметим, что достоверное и невозможное события  являются противоположными.

Термин случайное применяют к событию, которое при данном испытании может либо произойти, либо не произойти. 

 Суммой двух событий А и В называется событие С, состоящее в появлении хотя бы одного из них; записывают  Например, покупатель покупает молоко – событие А, покупатель покупает кефир – событие В, покупатель выходит из магазина не с пустыми руками событие

Произведением двух событий А и В называется событие С, состоящее в совместном наступлении обоих событий; Например, пассажир доезжает до вокзала – событие А,  поезд с пассажиром отправляется в путь – событие В. Тогда событие С – пассажир благополучно отбывает – есть произведение: С=АВ.

Классическое определение вероятности

Наблюдая или изучая какие-нибудь два или несколько событий, мы замечаем, что одни из них более, а другие менее возможны, то есть каждое событие обладает той или иной мерой возможности. Число, выражающее меру возможности некоторого события при данном испытании называется вероятностью этого события. Поясним на примере

Пример 1.

В ящике перемешано 25 шаров, из них 10 белых, 7 красных, 4 зеленых, 4 голубых. Испытание состоит в том, что наудачу вынимается один шар. При этом возможны следующие события: вынутый шар – белый (А), красный (В), зеленый(С),голубой (D). Числа  10/25, 7/25, 4/25 и 4/25 характеризуют меру возможности соответствующих событий. Общий подход к оценке меры возможности такого рода событий выражает следующее

Определение 3. Вероятностью Р(А) события А при данном испытании называется отношение числа т исходов, благоприятных для А, к числу п всевозможных исходов:

Р(А)=.                                                                               

Таким образом, вероятность – это некоторая числовая функция случайного события.

Пример 2.

Найти вероятность наибольшего выигрыша на один билет при игре в спортлото, если для этого необходимо угадать 5 «счастливых» чисел из 36.

Решение.

Имеется единственный благоприятный исход, при котором угаданы все 5 чисел, то есть  Число всевозможных различных исходов равно числу сочетаний из 36 чисел по 5: Находим:

Пример 3.

Из колоды, в которой 52 карты, последовательно выбираются наугад 3 карты. Какова вероятность, что это будет (в указанном порядке): А) тройка, семерка, туз? В) тройка, семерка, пиковая дома?

Решение. а) Число n всевозможных исходов, то есть различных троек выпавших карт с учетом их последовательного расположения, равно:

Число благоприятных исходов получится, если пересчитать «счастливые» тройки: m=64. По формуле получаем:

b) Рассуждая аналогично, находим вероятность выпадения «несчастливой» тройки карт:

Таким образом, «счастливая» комбинация карт, обещанная Германну в повести Пушкина «Пиковая дама» старухой, могла выпасть с фантастически малой вероятностью, но, как известно, выпала «несчастливая» комбинация с вероятностью еще в 4 раза меньшей! От такого и впрямь можно лишиться рассудка.

Пример 4.

        Дети, еще не знающие алфавита, играют в «паровозики», выстраивая наугад один за другим кубики, на которых написаны буквы: у одного ребенка М,А,Т,Е,М,А,Т,И,К,А, а у другого Ф,И,З,И,К,А. Какова вероятность того, что в результате у первого получится слово МАТЕМАТИКА, а у второго ФИЗИКА?

        Решение. Вероятности P(A) и P(B), соответственно, следующие:

Этот результат можно истолковать и так, что вероятность стать математиком почти в тысячу раз меньше, чем стать физиком!

         Перечислим некоторые очевидные свойства вероятностей.

1. Так как 0  тп, то 0 Р(А)1.

2. Если А –  событие невозможное, то Р(А) = 0.

3. Если В –  событие достоверное, то Р(В) = 1.

4. Р(А) +P() = 1.

        Если вероятность события А зависит от того, произошло событие В или нет, то говорят об условной вероятности события А и обозначают ее P(A/B). В противном случае говорят, что А независимо от В.

Теоремы сложения и умножения вероятностей

        По аналогии с суммами и произведениями функций, изучаемых в математическом анализе, рассматриваются суммы и произведения вероятностей. На свойствах этих операций сказывается специфика «аргументов», роль которых здесь играют случайные события.

        Теорема 1 (сложения). Вероятность суммы событий (то есть вероятность наступления хотя бы одного из них) в случае их несовместности равна сумме их вероятностей:

В общем случае вероятность суммы двух событий равна сумме их вероятностей минус вероятность их произведения:

Приведем геометрическую иллюстрацию этой теоремы, воспринимая произведения  AB как пересечение множеств  (рис.1)

                                                             Рис. 1

        Теорема 2 (умножения). Вероятность   произведения   двух   событий (то есть  вероятность  совместного  наступления  событий А и В) в случае независимых событий равна произведению их вероятностей.

 

В общем случае вероятность произведения двух событий равна произведению одного из них на условную вероятность другого:

Пример 5.

        Два стрелка, для которых вероятности попадания в мишень равны, соответственно, Р(А) = 0,7 и Р(В) = 0,8. производят по одному выстрелу. Определить вероятность  хотя бы одного попадания в цель.

        Решение. Поскольку промах есть событие противоположенное попаданию в мишень, то, по четвертому свойству, вероятность промаха для этих стрелков равны, соответственно,  P()=0,3 и P()=0,2. По теореме 2, вероятность промаха обоих стрелков равна произведению P()P()=0,30,2=0,06. Поэтому вероятность противоположного события (хотя бы одного попадания в цель) по тому же свойству вероятностей равна разности: 1 – 0.06 = 0.94.

        

Пример 6.

        В урне 2 белых и 3 красных шара. Вынимаем один за другим 2 шара. Найти вероятность того, что оба они белые.

        Решение. Событие А – вынимание первого белого шара, событие В – вынимание второго белого шара,  событие В/А – вынимание второго белого шара при условии, что первый шар белый,  событие АВ – вынимание двух белых шаров подряд. По теореме умножения имеем:

Сделаем проверку по формуле классической вероятности. Поскольку число благоприятных исходов m = 1, а число всевозможных исходов n = 10, то получаем:


Формула полной вероятности события.

Формулу, объединяющую теоремы сложения и умножения, устанавливает

Теорема 3 (полной вероятности). Вероятность события А, которое может произойти при условии осуществления одного из несовместных событий В1, В2, В3, ... , Вп, образующих полную группу (то есть исчерпывающих все возможные события) определяется формулой

Проиллюстрируем эту формулу примером.

        Пример 7.

        Азотное удобрение поступает на склад хозяйства из двух пунктов, причем из первого пункта в два раза больше, чем из второго. Вероятность события, что удобрение из первого пункта удовлетворяет стандарту, равна , а соответствующая вероятность для второго пункта равна . Определить вероятность события А = {взятое для пробы на складе хозяйства удобрение удовлетворяет стандарту}.

Решение. Обозначим:

событие В1 = {удобрение поступило из первого пункта};

событие В2 = {удобрение поступило из второго пункта}.

событие  = {удобрение из первого пункта  удовлетворяет стандарту}

событие  = {удобрение из первого пункта  удовлетворяет стандарту}

Находим:

Событие А имеет большую вероятность, оно практически достоверно, так как оно  наступает в среднем в 87 случаях из 100.

Формула Байеса.

Рассмотрим практическую задачу.  

Пример 8.

На двух фермах скотоводческого хозяйства произошла вспышка заболевания ящуром. На первой ферме доля заражения скота равна  и на второй . Животное, выбранное на одной из этих ферм, оказалось заболевшим. Найти вероятность того, зараженное животное было из первой фермы.

Решение. Введем обозначения. Животное выбирается из первой фермы – событие B1, а из второй фермы – событие B2.

Вероятности этих равновозможных событий: P(B1)= P(B2)=  Животное заражено, это событие A. То, что животное, отобранное на первое ферме, заражено – событие A/B1, а то, что животное, отобранное на второе ферме, заражено – событие A/B2.

Тогда вероятность, того, что животное выбрано на первое ферме и заражено, выразится следующем образом:

P(B1)∙P(А/В1). Но  P(B1)∙P(А/В1) = P(A)∙P(В1 /A). Поэтому получаем:

А поскольку по формуле полной вероятности:

То окончательно получаем:

Это формула носит название формулы Байеса.

Она позволяет вычислить вероятность событие B1 (или B2)в случае, когда событие А произошло, то есть переоценить вероятность.

Возвращаясь к нашей конкретной задаче, находим:

Рассмотрим ещё один пример, на этот раз из жизни человеческого сообщества.

Пример 9. 

Большая популяция людей разбита на две группы одинаковой численности. Диета одной группы отличалась высоким содержанием ненасыщенных жиров, а диета контрольной группы была богатой насыщенными жирами. После 10 лет пребывания на этих диетах возникновение сердечно-сосудистых заболеваний составило в этих группах 29% и 46%. Случайно выбранный из популяции человек имеет сердечно-сосудистое заболевание. Какова вероятность того, что этот человек принадлежит к контрольной группе?

Решение. Обозначим:

событие В1 = {человек придерживался специальной диеты};

событие В2 = {человек принадлежал к контрольной группе};

событие А/В1 = {человек заболел при условии, что он придерживался специальной диеты};

событие А/В2 = {человек заболел при условии, что он принадлежал к контрольной группе};

событие А = {случайно отобранный человек заболел}.

Тогда, используя формулу полной вероятности, получим

Вероятность того, что человек, имеющий заболевание, принадлежит к контрольной группе, определим по формуле Байеса. Имеем

§2.Законы распределения

         Теория вероятностей занимается не только случайными событиями и их вероятностями. Часто важно знать не вероятность случайного исхода, а связанные с ним «выигрыши или проигрыши», то есть оценивать определенную числовую величину, соответствующую этому исходу. Она называется случайной величиной. Если множество ее возможных значений образует конечную или бесконечную последовательность, то она называется дискретной случайной величиной. Дискретную случайную величину будем обозначать X, а ее конкретные значения x1, x2,…; соответствующие вероятности обозначим: p(x1) = p1, p(x2) = p2 ,…  

     Например, если испытание состоит в трехкратном выбрасывании монеты, то орёл может выпасть 0, 1, 2 или 3 раза. Поэтому имеем: x1= 0, x2 = 1, x3  = 2, x4  = 3. Вероятности соответствующих исходов: p1 = , p2 = , p3  = , p4 =  (сумма равна единице).

             Закон  распределения случайной величины – это правило, которое записывается в виде таблицы.

       В первом примере:

X

0

1

2

3

p

(мы предположили, что статистическая вероятность угона равна 1/100)

       В общем случае закон распределения дискретной случайной величины имеет следующий вид:

X

x1

x2

…….

xn

p

p1

p2

…….

pn

      Здесь p1 + p2 + … + pn = 1.

       Существуют различные законы распределения, они зависят от характера производимых испытаний. В качестве примеров, рассмотрим «геометрическое» и «биномиальное» распределения.

                          Геометрическое распределение

       Как модель задач, приводящих к геометрическому распределению, рассмотрим  случай, когда в качестве испытания берется попадание мячом в баскетбольную корзину со статистической  вероятностью p, при этом вероятность промаха будет: q = 1 – p. Случайная величина – это число бросков X до первого попадания. Имеем следующие значения вероятностей:

p(x = 1) = p, p(x=2) = qp, p(x=3) = qqp= q2p,…, p(x=n) = q(n – 1)  p. 

      Если полагать процесс бесконечным, то имеем:  

                    = p(1+q+q2  + … + q(n – 1) + …)  = = 1.  

Мы применили формулу суммы членов бесконечно убывающей геометрической прогрессии (гл.4), а в конце учли, что 1 – q = p. 

Биномиальное распределение

      Как модель задач, приводящих к биномиальному распределению, рассмотрим извлечение белого шара (с возвращением!) из корзины с белыми и черными шарами (схема повторной выборки Бернулли). Пусть, аналогично предыдущему, вероятность вынуть красный шар равна p, тогда вероятность вынуть черный шар равна: q = 1 – p. Опыт повторяется n раз. Обозначим через X число красных шаров, которое последовательно вынимается (с возвращением) при n испытаниях. Найдем соответствующие вероятности. Имеем:

p (x=0) = qn,  p (x =1) = n pq(n – 1),  p (x=2) = n  p2q(n – 1),…, p(x=n) = pn .

   Заметим, что при разложении бинома Ньютона

(p + q)n

 в многочлен (гл.4) как раз и получается сумма всех этих вероятностей. С другой стороны, поскольку p + q = 1, то эта сумма равна 1.

   

                      §3.Математическое ожидание. Дисперсия

     Имея закон распределения случайной величины, задаются целью выразить ее свойства  более гармонично и просто. Для этого нужно иметь какие-нибудь числовые характеристики случайной величины. Существуют две главные числовые характеристики. Одна из них характеризует так называемое «центральное значение» случайной величины, другая  показывает разброс, рассеяние случайной величины, ее отклонение от центрального значения. Первая называется «математическим ожиданием»,

вторая «дисперсией» (dispersion рассеяние, лат.).                                                                            Математическое ожидание определяется формулой:

                                   

     Пусть проводится N независимых испытаний. Значения переменной величины X:  x1, x2,…, xn  встречаются при этом соответствующее число раз: :  m1, m2,…, mn, так что (m1 + m2 +…+ mn =N). Найдем среднее арифметическое значение:

    По формуле классической вероятности:

, ,…, .

Отсюда следует, что математическое ожидание равно среднему значению случайной величины, оно является «центром рассеивания» случайной величины.

   Пример. Проводится денежная лотерея, в которой из 100 билетов 15  выигрышные: на 10 билетов приходится выигрыш в 50 рублей, на 4 билета по 200 рублей и на 1 билет падает выигрыш в 500 рублей. Каково математическое ожидание выигрыша на один билет?

Решение. Пусть X- размер выигрыша. Тогда x1 = 0, x2 = 50, x3 = 200, x4 =500. Соответствующие вероятности, вычисленные по классической формуле, будут: p1 = , p2 =, p3 = , p4 = . Закон распределения в этом примере имеет вид

X

0

50

200

500

p

    Подсчет показывает, что математическое ожидание выигрыша равно 18 рублям. Это число является ориентиром для продажной цены за один билет.

   Дисперсией D(X) называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

   Пусть M(X) =. Тогда D(X) = M [(X – )2] =

Заметим, что математическое ожидание разности (X – ) (без квадрата!) равно нулю.

В вышеприведенной задаче с лотереей дисперсия оказывается примерно равна 4000 «квадратных» рублей.

Квадратный корень из дисперсии выражает среднеквадратичное отклонение случайной величины от центра рассеивания.

Элементы математической статистики

Математическая статистика используется в различных областях знаний, в том числе в экономике сельского хозяйства, опытном деле, земледелии, животноводстве, лесном хозяйстве и т. д., т. е. там, где для изучения процессов и явлений недостаточно только качественной характеристики. Чтобы глубоко познать сущность процессов, необходимы количественные характеристики в виде измерений, наблюдений с их последующим  анализом, обобщением и выводами. Изучению способов сбора результатов наблюдений и их обработки отводится настоящая глава.

§ 13-1-   Предмет и задачи

математической статистики

Генеральная и выборочная совокупность. Выборочный метод

Определение  Математическая статистика это наука, занимающаяся разработкой методов сбора, регистрации и обработки результатов наблюдений (измерений) с целью познания закономерностей случайных массовых явлений.

Результаты измерений (наблюдений) называют статистическими данными. В зависимости от поставленной цели все задачи   математической статистики могут быть сформулированы в различных формах, среди которых типичными являются: 1) приближенное определение неизвестного закона распределения случайной величины; 2) приближенное определение неизвестных параметров   распределения,   т. е.   их   статистические   оценки; 3) проверка правдоподобия гипотез о распределении.

Одним из основных способов сбора статистических данных является выборочный метод.

Определение  Вся исследуемая совокупность однородных объектов называется генеральной совокупностью.

Определение • Множество из п объектов, отобранных случайным образом из генеральной совокупности, называется выборочной совокупностью или выборкой (п объем выборки).

Необходимость исследования статистического материала с помощью выборки объясняется тем, что: 1) исследование всей генеральной совокупности трудоемко и приводит к большим затратам средств и времени или практически неосуществимое; 2) в ряде случаев исследование всех объектов генеральной совокупности привело бы к их порче, например исследование всех электролампочек на продолжительность горения, исследование на всхожесть всего семенного материала.

Определение ■ Метод, основанный на том, что по данным обследования выборки, выделенной из данной генеральной совокупности, делается заключение о всей генеральной совокупности, называется выборочным методом.

Выборка называется репрезентативной, если каждый объект генеральной совокупности имеет одинаковую возможность попасть в выборку.

Различают два основных способа составления выборки: повторный и бесповторный. При повторном способе каждый отобранный объект возвращается в генеральную совокупность, после чего выбирают следующий, очередной объект.

При бесповоротном способе объекты в генеральную совокупность не возвращаются.

§ 13-3-   Статистическое распределение. Геометрическое изображение

Возьмем выборочную совокупность объема п. Если генеральная совокупность имеет небольшой объем, то в некоторых случаях можно в выборку включить все ее члены.

Количественное значение признака, наблюдаемое при отборе, — это случайная величина, ее возможные значения обозначают символами х1, х2, х3, ..., xk, а числа ni объектов с одинаковым количественным признаком называют частотами и обозначают n1, n2, n3, ..., nk . Изучение выборки начинают с составления статистического распределения — таблицы с двумя строками. В одной строк* указывают значения признака, в другой — соответствующие ит частоты. 

Статистическое распределение выборки. Полигон. Гистограмма.

 Пусть из генеральной совокупности извлечена выборка, причем х1 наблюдалось n1 раз, х2n2 раз, nk — пи раз и n1+ n2+ n3, ...,+nk = n — объем выборки. Наблюдаемые х1, х2, х3, ..., xk,  называются вариантами, а последовательность вариант, записанная в возрастающем порядке, — вариационным рядом. Числа наблюдений n1, n2, n3, ..., nk называются  частотами, а их  отношения к объему выборки  , ,….,  относительными частотами.

Статистическим распределением выборки называют перечень вариант и соответствующих им частот или относительных частот. Статистическое распределение можно задать также в виде последовательности интервалов и соответствующих им частот (непрерывное распределение). В качестве частоты, соответствующей интервалу, принимают сумму частот вариант, попавших в этот интервал. Для графического изображения статистического распределения используются полигоны и гистограммы.

Для построения полигона на оси Ох откладывают значения вариант xi , на оси О у — значения частот ni { (относительных частот ).

Пример  1. На рисунке  изображен полигон следующего распределения:

Варианта xi

1

2

3

5

Относительная частота

0,4

0,2

0,3

0,1

Полигоном обычно пользуются в случае небольшого количества вариант. В случае большого количества вариант и в случае непрерывного распределения признака чаще строят гистограммы. Для этого интервал, в котором заключены все наблюдаемые значения признака, разбивают на несколько частичных интервалов длиной h и находят для каждого частичного интервала ni - сумму частот вариант, попавших в i интервал. Затем на этих интервалах, как на основаниях, строят прямоугольники с высотами ( или  где n – объем выборки). Площадь i частичного прямоугольника равна ( или )

Следовательно, площадь гистограммы равна сумме всех частот (или относительных частот), т. е. объему выборки (или единице).

       

             Рис. 123                                                       Рис. 124

Пример 2. На рисунке 124 изображена гистограмма непрерывного распределения объема n = 100, приведенного в следующей таблице:

Частичный интервал h

Сумма частот вариант

частичного интервала ni

5-10

10-15

15-20

20-25

25-30

30-35

35-40

4

6

16

36

24

10

4

0,8

1,2

3,2

7,2

4,8

2,0

0,8

Статистическим распределением случайной величины называют таблицу значений признака, расположенных в возрастающем порядке, и соответствующих им частот или относительных частот.

Выборочные характеристики статистического распределения

Пусть имеется выборка объема п со значениями признака х1, х2, х3, ..., xk. Построим статистическое распределение:

xi

x1

x2

x3

….

xk

ni

n1

n2

n3

….

nk

Для того чтобы охарактеризовать наиболее существенные свойства этого распределения, так же как и в теории вероятностей, используют средние показатели или, как их называют, выборочные числовые характеристики. Рассмотрим некоторые из них.

1. Выборочная  средняя. При наличии повторяющихся

значений признака

        (13.5.1)

где п — объем выборки, xi и ni взяты из таблицы выше. Выборочная средняя  изменяется при переходе от одной выборки к другой, поэтому в силу случайного отбора является случайной величиной.

Для упрощения вычисления выборочных характеристик удобно перейти от данных значений признака х1, х2, х3, ..., xk к условным значениям u1, u2, u3, ..., uk по формуле

,                  (13.5.2)

т. е. ввести вспомогательную величину U = (X - C)/h, где С — новое начало отсчета, обычно это значение признака с наибольшей частотой, h — масштаб.

Можно показать, что при переходе к условным значениям признака по формуле (13.5.2) зависимость, связывающая  и , имеет вид

        (13.5.3)

ПРИМЕР •  Дано статистическое распределение:

xi

1

3

5

7

9

11

ni

2

8

15

14

7

4

Найти .

Р е ш е н и - Перейдем к условным значениям признака, приняв за С значение с наибольшей частотой, т. е. С = 5. Далее находим h = xi - xi-1 = 2. Имеем

Составляем распределение условных значений признака:

Таблица 13,6

ui

-2

-1

0

1

2

3

ni

2

8

15

14

7

4

Находим

= 0,56 * 2 + 5 = 6,12.  

Особенно выгодно применять формулу (13.5.2), если значения признака велики.

2. Выборочная и исправленная дисперсия. Одна числовая характеристика Хв не дает полного представления о статистическом распределении. В агрономической и зоотехнической практике, как и в других сферах производства, при анализе результатов существенной для выводов является характеристика рассеяния значений признака относительно выборочной средней. Отклонение отдельных значений от выборочной средней бывает значительным, и с этим нельзя не считаться.

Выборочной дисперсией называется среднее арифметическое значение квадратов отклонений признака от выборочной средней.

Пример: Урожайность двух сортов А и В пшеницы, возделываемых на трех участках с одинаковыми условиями роста и развития, характеризуется следующими таблицами:

         Сорт А                                                                                      Сорт В       

Х, ц

18

19

20

Х, ц

17

19

22

Площадь, га

15

25

15

Площадь, га

20

20

Решение-   Вычислим, , Dx, Dy . Находим

            

   

Как видим, дисперсия Dy как мера рассеяния или разброса урожайности сорта В относительно среднего значения в случае примерно одинаковых площадей больше, чем Dx, а это явление нежелательное. Из двух сортов лучшим является тот, урожайность которого более устойчива. По данным опыта сорт А предпочтительнее сорта B.

Для вычисления выборочной дисперсии используют следующую формулу:

Выборочная дисперсия имеет систематическую ошибку, приводящую к уменьшению дисперсии. Чтобы это устранить, вводят поправку, умножая DB на п/(п - 1). В результате получают исправленную дисперсию

        (13.5.6)

При малых выборках S ощутимо отличается от DB, например, при п = 2 имеем S2 = 2DB. С возрастанием п исправленная дисперсия S2  DB. Уже при п = 30 дисперсии S2 и DB различаются на 3%.

3, Выборочное среднее квадратическое отклонение.

Арифметическое    значение    квадратного корня  из  выборочной дисперсии  называется  выборочным средним квадратическим отклонением:

                         (13.5.9)

Исправленное   выборочное   среднее   квадратическое   отклонение

                          (13.5.10)

Средняя квадратическая ошибка выборочной средней  в раз меньше среднего квадратического отклонения, случайной величины X, возможные значения которой попали в выборочную совокупность.

§ 13-Ь-   Статистические оценки

параметров распределения

Оценки математического ожидания и дисперсии. С понятием параметров распределения мы познакомились в теории вероятностей. .

Определение Статистической оценкой неизвестного параметра теоретического распределения называют его приближенное значение, зависящее от данных выборки (х1, х2, х3, ..., xk; n1, n2, n3, ..., nk), т. е. некоторую функцию этих величин.

Статистическая оценка является случайной величиной.

Обозначим через  — оцениваемый параметр, а через  — его статистическую оценку. Величину | - | называют точностью оценки. Чем меньше | - |, тем лучше, точнее определен неизвестный параметр.

Чтобы оценка   имела практическое значение, она не должна содержать систематической ошибки и вместе с тем иметь возможно меньшую дисперсию. Кроме того, при увеличении объема выборки вероятность сколь угодно малых отклонений | - |должна быть близка к 1.

Определение  Оценка параметра называется несмещенной, если ее математическое ожидание М() равно оцениваемому параметру, т. е.

М() = ,        (13.6.1)

и смещенной, если

М()  ,        (13.6.2)

Определение - Оценка  называется состоятельной, если при любом  > 0

        (13.6.3)

Равенство (13.6.3) читается так: оценка  сходится по вероятности к .

Определение • Оценка  называется эффективной, если при заданном п она имеет наименьшую дисперсию.

ТЕОРЕМА 1 . Выборочная средняя Хв является несмещенной и состоятельной оценкой математического ожидания.

В качестве оценки дисперсии изучаемого признака в генеральной совокупности D(X) принимается исправленная дисперсия.

ТЕОРЕИА     2    Исправленная   выборочная   дисперсия является несмещенной и состоятельной оценкой дисперсии D(X).


По теме: методические разработки, презентации и конспекты

Урок профильного курса «Элементы комбинаторики, теории вероятностей, статистики» Вероятность: мера случайности

Урок профильного курса «Элементы комбинаторики, теории вероятностей, статистики» Вероятность: мера случайности Цели урока: Вывод и отработка классического определения вероятности. Построение...

Самостоятельные работы по теории вероятностей 8 класс к учебнику Ю.Н. Тюрина и др. "Теория вероятностей и статистика"

В помощь учителю, преподающему теорию вероятностей и статистику по учебнику Ю.Н. Тюрина, А.А. Макарова и др., я составила варианы самостоятельных работ в 8 классе. Номера заданий тематически и по...

ТЕМАТИЧЕСКОЕ ПЛАНИРОВАНИЕ внеурочных занятий по теории вероятностей и статистики «Вероятность и статистика в нашей жизни»

ТЕМАТИЧЕСКОЕ ПЛАНИРОВАНИЕ внеурочных занятий по теории вероятностей и статистики «Вероятность и статистика в нашей жизни» 1 час в неделю, 34 часа в год...

Лекции по Теории вероятности

Представлен лекционный материал с задачами для самостоятельного решения по Теории вероятности...

Предмет теории вероятности. Вероятность случайного события.

О некоторых событиях мы твердо можем сказать, что они произойдут. В наступлении других событий мы не так уверены.Например, в самый жаркий солнечный день мы твердо уверены, что лето кончится, наступит ...

Условная вероятность. Умножение вероятностей. Дерево случайного эксперимента. 10 класс. К учебнику Ю.Н. Тюрин,..ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТАТИСТИКА

Формируемые результаты:Предметные: формировать умение складывать и вычитать многочлены.Личностные: формировать умение формулировать собственноемнение.Метапредметные: формировать умение строить логичес...