| Теория вероятностей и математическая статистика |
| Конспект лекций |
ГЛАВА I. ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Введение
В этой главе будут изучаться
закономерности массовых случайных событий.
Немного поясним эту фразу, не прибегая пока к точным формулировкам. Существуют
ситуации, когда условия опыта однозначно не могут определить его результат.
Например, если подбросить на достаточно большую высоту монету, то нельзя точно
предсказать какой стороной она ляжет: вверх гербом или цифрой. Результат опыта
однозначно его условиями не определяется, однако закономерности все-таки
существуют.
Каждый знает, что при большом количестве бросаний монеты примерно в половине случаев выпадает цифра, в половине - герб. Подобного рода закономерности и изучаются в теории вероятностей. Нас будет интересовать не результат одного отдельного опыта, а те закономерности, которые проявляются после многократного его повторения.
Теория вероятностей и математическая статистика это разделы математики, рассматривающие массовые явления в абстрактной форме, независимо от их содержания. Однако на этот каркас можно нарастить самые разнообразные приложения в конкретных областях человеческой деятельности. Решаются, например, задачи такого типа: сколько нужно провести опытов для получения надежных выводов. Конкретно, необходимо узнать процент брака на производстве с определенной точностью. Сколько нужно взять деталей на проверку?
- Сколько существует способов выбрать двух человек из пяти?
- Сколько вариантов расстановки шести букв в слове?
- Сколькими способами можно выбрать три карты из карточной колоды?
Все эти вопросы объединяет одно – подсчёт числа способов осуществления некоторого действия или способов расположения некоторых предметов в последовательности. Решением такого рода задач занимается комбинаторика.
Основой комбинаторных подсчётов является принцип умножения.
Принцип умножения.
Пусть требуется выполнить одно за другим
действий. Причём первое действие
можно выполнить
способами, второе
действие -
способами, третье действие -
способами и т.д. Тогда все
действий могут быть выполнены
способами.
Иначе говоря, каждый способ выполнения первого действия может сочетаться с каждым способом выполнения второго действия – и так далее.
Рассмотрим несколько применений этого принципа.
Вопрос. Сколько различных четырёхзначных чисел можно составить из набора цифр {0, 1, 2, 3, 4, 5} при одном из следующих условий:
а) ни одна из цифр числа не повторяется;
б) цифры в числе могут повторяться;
в) полученное число должно быть нечетным.
Решение.
Случай а). Первой цифрой может быть
любая из пяти цифр: 1, 2, 3, 4, 5. Если первая цифра выбрана, то вторая может
быть выбрана пятью способами, третья – четырьмя способами, четвертая – тремя
способами. Согласно принципу умножения общее число способов равно
.
Случай б). Первой цифрой может быть, как
и в случае а), одна из пяти цифр ( 0 исключается). Для каждой последующей цифры
имеется 6 возможностей. Следовательно, общее число возможностей равно
.
Случай в). Как и в предыдущих случаях,
для первой цифры имеется 5 возможностей. Последней же цифрой может быть одна из
трёх: 1, 3, 5. Общее количество в этом случае равно
.
1.2. Нахождение числа элементов суммы множеств
Пусть А и В – два множества произвольной природы.
Суммой или объединением
множеств А и В называется множество С, которому
принадлежат все те и только те элементы, которые входят либо в множество А,
либо в множество В, либо в оба эти множества. Для объединения множеств
используется обозначение
. Мы также будем
использовать обозначение
, принятое для
суммы.
Пересечением или произведением
множеств А и В называется множество С, которому
принадлежат все те и только те элементы, которые являются общими для множеств А
и В. Обозначается пересечение множеств
(мы
также будем использовать обозначение
).
Обозначим
число
элементов множества А,
- число
элементов множества В,
- число
элементов множества
и, наконец,
- число элементов множества
. Тогда имеет место равенство
.
Действительно,
-
число элементов множеств А и В, но в таком случае общие элементы
этих множеств (их число
) будут
перечислены дважды. Поэтому нужно вычесть данное число из общей суммы.
С помощью этой формулы можно получить формулу для числа элементов суммы любого числа множеств. Например, для суммы трёх множеств имеем
![]()
.
Задача. В некоторой группе каждый студент – либо девушка, либо блондин, либо любит математику. Известно также, что в группе 20 девушек, из них 12 блондинок и одна блондинка любит математику. Всего в группе 24 студента-блондина, из них 12 любят математику, а всего студентов (юношей и девушек), которые любят математику, 17 человек, из которых 6 девушек. Сколько студентов в группе?
Решение. Пусть А
– множество девушек, В – множество блондинов, С – множество
любящих математику. Тогда
- общее число
студентов в группе, т.е. число, которое требуется найти. Очевидно, также, что
– множество блондинок;
– множество девушек, любящих
математику, а
- множество блондинок,
любящих математику. Тогда
![]()
![]()
= 20 + 24 + 17 – ( 12 + 6 + 12 ) + 1 = 32.
Таким образом, общая численность группы – 32 человека.
1.3. Число сочетаний, размещений и перестановок
Сочетанием называется
неупорядоченное k-элементное подмножество n-элементного
множества. Число таких подмножеств – число сочетаний – обозначается
.
Размещением называется
упорядоченное k-элементное подмножество n-элементного
множества. Число размещений обозначается
.
Перестановкой называется
упорядоченное множество из n элементов. Очевидно, перестановка – это
частный случай размещения, а именно, размещение из n элементов.
Различные перестановки отличаются друг от друга только порядком следования
элементов. Число перестановок обозначается
.
Факториалом целого
положительного числа n(обозначается n!) называется
произведение всех целых чисел от 1 до n: n! =
.
Основное свойство факториала: n! =
. По определению
считается, что 0!=1.
Теорема. Число
сочетаний из n элементов по
k элементов (или,
короче, сочетаний из n по k) определяется
формулой
.
Доказательство.
-
число одноэлементных подмножеств n-элементного
множества. Очевидно,
. Двухэлементные
подмножества образуются присоединением одного из одноэлементных подмножеств (их
число n) к
оставшимся. Тогда, по принципу
умножения, число таких двухэлементных подмножеств равно
. Деление пополам производится
вследствие того, что поскольку подмножества не упорядочены, их появление
возможно в произвольном порядке. Другими словами, сочетания
и
не
различаются. Аналогичным образом получается соотношение
и, вообще, для k-элементных
подмножеств имеем
.
Используя последнее соотношение, получим
![]()
,
что и требовалось доказать.
Теорема. Число
перестановок равно n факториал: ![]()
Доказательство. Будем последовательно
выбирать элементы n-элементного множества и размещать их в
определенном порядке на n местах. На первое место можно поставить
любой из n элементов; на
второе место можно поставить любой n – 1 оставшихся
элементов; на третье место – любой из
оставшихся
элементов и т.д. По принципу умножения все n мест можно
заполнить
способами, что и требовалось
доказать.
Теорема. Число
упорядоченных k-элементных
подмножеств множества, состоящего из n элементов,
определяется формулой
.
Доказательство. Число неупорядоченных k-элементных
подмножеств n-элементного множества равно
. Каждое такое подмножество можно
упорядочить
способами. По принципу умножения
число
всех упорядоченных k-элементных
подмножеств равно
.
Следствие.
.
Задача. Сколькими способами читатель может выбрать три книжки из пяти?
Решение. Очевидно, неважен порядок выбора книг. Следовательно, искомое число способов равно числу неупорядоченных трёхэлементных подмножеств множества из пяти элементов, т.е. числу сочетаний из пяти по три:
.
Задача. Сколькими способами можно рассадить четырёх студентов на 25 местах?
Решение. Искомое число способов равно числу размещений из 25 по 4:
.
Докажем следующее равенство, известное под названием бинома Ньютона:
.
Доказательство. Умножим выражение
само на себя последовательно n раз. Если не
приводить подобные, то получим сумму слагаемых вида
,
где
равно либо a, либо b.
Пусть в некотором таком слагаемом a появляется k раз. Тогда b появляется
раз и слагаемое имеет вид
. Нетрудно подсчитать число способов
разместить k множителей a на n местах. Число
таких (неупорядоченных) k-элементных подмножеств равно
.
Очевидно, k может принимать значения 0, 1, 2, …, n.
Таким образом, вся сумма принимает вид
.
Для
бином
Ньютона даёт следующие формулы:
![]()
![]()
![]()
![]()
Полученные результаты объясняют, почему
числа
называют биномиальными
коэффициентами.
Из определения и из формулы бинома Ньютона могут быть получены следующие свойства биномиальных коэффициентов:
- свойство
симметрии;
- рекуррентное
соотношение;
.
§2. Вероятностное пространство
Рассмотрим опыт, результатом которого может быть некоторый исход, заранее нам неизвестный. Мы предполагаем, однако, что все возможные исходы данного опыта нам, тем не менее, известны. Например, опыт – бросание монеты, результатом которого может быть «герб» или «решетка». Или – бросание игральной кости, результатом которого является выпадение некоторого числа очков от одного до шести.
Каждый из исходов опыта назовем элементарным исходом.
Множество
элементарных
исходов назовём пространством элементарных событий. Разумеется,
каждый из рассматриваемых опытов имеет своё пространство элементарных событий.
В первом из вышеприведенных примеров множество
состоит
из двух элементов, во втором – из шести элементов.
Выделим класс событий U, рассмотрением
которого можно ограничиться в данной задаче. На множестве U событий зададим
функцию Р (вероятность), удовлетворяющую некоторым условиям. Тройка
, которая формализует любую
вероятностную задачу, называется вероятностным пространством.
2.1. Пространство элементарных событий
Множество
,
как указано выше, есть пространство элементарных событий. Элемент ω этого
множества назовём элементарным событием. В реальном опыте
элементарным событиям соответствуют взаимоисключающие исходы. Такое достаточно
абстрактное определение множества Ω обусловлено разнообразием случайных
явлений. Рассмотрим ряд примеров.
1. Опыт состоит в подбрасывании монеты
один раз. Возможны исходы: выпал «герб», выпала «решетка». Вероятно, возможны и
другие исходы, однако, при математическом описании этого опыта мы ограничимся
только этими исходами. Таким образом,
.
2. Опыт состоит в однократном бросании
игральной кости. В этом случае естественно выбрать в качестве пространства
элементарных событий множество
, состоящее из взаимоисключающих
исходов опыта.
3. Опыт: стрельба по плоской мишени.
Если ввести на плоскости мишени прямоугольную систему координат, то каждому
исходу опыта (попаданию в определенную точку плоскости) можно поставить в
соответствие координаты этой точки. Тогда пространство элементарных событий Ω есть множество
точек плоскости или же множество упорядоченных пар действительных чисел
.
Случайным событием или просто событием
называется любое подмножество множества Ω, если Ω конечно или
счетно, т.е.
или же
.
Суммой двух событий А
и В назовем событие
(или
), состоящее из всех элементарных
событий, принадлежащих или событию А, или событию В, или
одновременно и тому, и другому. Это определение иллюстрируется диаграммой
Эйлера (рис. )
Произведением
(или
)
называется событие, состоящее из элементарных событий, принадлежащих и событию А,
и событию В. На рис. событие
изображено
заштрихованной фигурой.
Разностью
называется событие, состоящее из
элементов множества А, не принадлежащих множеству В (рис. )
Событие Ω назовем достоверным;
пустое множество
назовем невозможным
событием. Событие
назовем противоположным
событию А («не А»).
События А и В называются несовместными,
если
.
Тот факт, что А является
подмножеством В, будем записывать так:
.
Понятия произведения и суммы событий переносится на бесконечные последовательности событий. Событие

состоит из элементарных событий,
принадлежащих хотя бы одному из событий
.
Событие

состоит из элементарных событий,
принадлежащих каждому событию
.
Из определений следует, что
;
;
;
Операции сложения и умножения событий обладают всеми обычными свойствами алгебраических операций:
- коммутативность
,
;
-ассоциативность
,
;
- дистрибутивность
.
Кроме того, выполняются так называемые правила Моргана:
,
.
Рассмотрим множество U (класс U), состоящее из подмножеств пространства элементарных событий Ω.
Класс подмножеств U называется алгеброй
событий, если
, а также
;
;
при любых
и
.
Другими словами, алгебра событий содержит всё пространство, а также вместе с любыми двумя событиями содержит их сумму, произведение и разность.
Поскольку
,
то пустое множество
.
Наименьшей системой подмножеств, являющейся
U-алгеброй,
оказывается система
. Очевидно, она
соответствует опыту, в котором допустим только один исход.
U -алгебра в примере однократного бросания игральной кости имеет вид:
![]()
.
Любое подмножество (событие А) пространства Ω этого опыта можно представить в виде
, где
;
и
для всех
.
Пример. Пусть
– система всех
подмножеств множества Ω. Тогда
– алгебра.
Все отношения между событиями в теории
вероятностей могут быть описаны множествами и операциями над множествами.
Соответствия между понятиями теории множеств и теории вероятностей приведены в
таблице
|
Теория вероятностей |
Теория множеств |
|
1. Пространство элементарных исходов, достоверное событие 2. Невозможное событие 3. Элементарное событие, ω 4. События A, B
5. Произошло A или B или оба 6. Произошли A и B 7. Событие A влечет B 8. A и B несовместны 9. Произошло событие A 10. Событие A не произошло |
1. Множество Ω
2. Пустое множество Ø 3. Элементы множества Ω, ω 4. Множества A, B есть подмножества Ω 5. A∪B 6. AB или A⋂B 7. A ⊂ B 8. AB= Ø 9. A 10. |
Числовая функция Р, определенная на классе событий U, называется вероятностью, если выполнены следующие условия (аксиомы вероятности):
1. U является алгеброй событий;
2.
для любого события
;
3.
;
4.
Если А и В несовместные события, то
;
5.
Если
и
,
то
Эта аксиома непрерывности является частным случаем другой аксиомы непрерывности:
5′.
Если
и
,
то ![]()
Посмотрим,
как введение вероятностного пространства решает вероятностную задачу. В примере
с однократным бросанием игральной кости имеется
,
определен также и класс подмножеств U. Кроме того,
, где
-
вероятности появления различных граней кости. Если кость правильная, то можно
полагать, что
одинаковы и так как их
сумма равна 1, то
.
2.4. Следствия из аксиом теории вероятностей
Из аксиом 3), 4) и равенства А+Ā= Ω следует, что
Р(А+ Ā) = Р(Ω)
Р(А) + Р(Ā) = 1
Р(Ā) = 1 – Р(А).
Полагая в последнем равенстве А = Ω, получим
Р(Ø) = 1 - Р(Ω) = 1 – 1 = 0.
Теорема сложения вероятностей.
Для любых событий А и В
Р(А+В) = Р(А) + Р(В) – Р(АВ).
Доказательство. Представим события А+В и В в виде
А+В = А+ ĀВ, В=АВ+ ĀВ.
События в правых частях этих равенств несовместны и, следовательно,
Р(А+В) = Р(А) + Р(ĀВ), Р(В) = Р(АВ) + Р(ĀВ).
Выражая из последнего равенства Р(ĀВ) и подставляя в предыдущее, получим
Р(А+В) = Р(А) + Р(В) – Р(АВ).
Общие требования не определяют вероятность однозначно.
Дальнейшая конкретизация проводится применительно к рассматриваемой задаче.
§3. Классическое и геометрическое определения вероятности
3.1. Классическое определение вероятности
Пусть
– пространство элементарных событий
некоторого опыта, имеющего s элементарных исходов, а U-алгебра содержит
все подмножества пространства Ω.
В классическом определении вероятности полагают, что
,
,
где
s – число всех
элементарных событий. Поэтому вероятность
события
А, где
, равна отношению числа
элементарных событий
, входящих в А, к
общему числу элементарных событий в Ω:
.
Величина
удовлетворяет всем аксиомам
вероятности. Действительно, для любого множества Ω система всех его
подмножеств является алгеброй. Вероятность любого события неотрицательна:
. Если
,
то
. Если
(
- число элементарных событий в А,
- число элементарных событий в В,
А и В – несовместны), то
.
Пример
1. Из урны, содержащей М белых и
черных
шаров, наудачу извлекается сразу
шаров. Какова
вероятность того, что среди них окажется
белых
шаров?
За
элементарные события естественно принять любые подмножества по
элементов, выбранные из множества
элементов. Число таких подмножеств
равно
. Таким образом, число всех событий
известно. Каждый набор шаров, входящий в интересующее нас событие
, состоит из двух частей:
белых шаров и
черных шаров. Число наборов
соответственно равно
и
.
В результате, по принципу умножения, число событий в
равно
. И, по формуле классической
вероятности,
. Набор чисел
называют гипергеометрическим
распределением.
Пример 2. Ребенок, играя десятью кубиками, на которых написаны буквы М, М, Т, Т, А, А, А, К, И, Е, сложил слово МАТЕМАТИКА. Следует ли считать, что ребенок грамотный?
Пространством
элементарных событий являются всевозможные перестановки (слова) 10 кубиков. Их
число
. При этом кубики с одинаковыми
буквами мы считали различными. Подсчитаем, сколько элементарных событий входит
в событие, вероятность которого мы хотим оценить. Кубики с буквами, отличными
от М, Т, А, должны стоять на определенных местах. Три кубика с буквой А можно
расположить на трёх местах 3! = 6 способами, кубики с буквой М и Т – двумя
способами на двух местах. По принципу умножения наше событие состоит из
элементарных событий и
. Эта вероятность мала и событие
можно считать практически невозможным.
Классическое определение вероятности нельзя применять к опыту с бесконечным числом «равновозможных» исходов, так как при этом, например, вероятность события может оказаться больше единицы. К описанию ситуации, когда число исходов бесконечно, приспособлено геометрическое определение вероятности.
3.2. Геометрическое определение вероятности
Классическое определение вероятности нельзя применить к опыту с бесконечным числом равновозможных исходов. Для этого случая применяется геометрическое определение вероятности. Если допустить, что исходы испытания распределены равномерно по области S, то есть вероятность попасть в какую-либо часть области S пропорциональна мере этой части и не зависит от ее расположения и формы, то за вероятность попадания в подмножество S множества Ω можно взять
Р(А)
=
,
где m(S), m(Ω) – меры соответствующих областей (длина, площадь или объем.)
Рассмотрим пример.
Два студента договорились о встрече в течение часа после лекций. Каждый ждет 20 минут и уходит, если другого студента нет. Какова вероятность встречи?
,
где x – время прихода первого, y – время прихода второго студента.
Событие А – встреча студентов.
.
.
3.3. Относительная частота события
Относительной частотой события называется отношение числа испытаний, в которые событие появилось, к общему числу проведенных испытаний. Таким образом,
W(A) =
,
где m – число появлений события А, n – общее число испытаний, W(А) – относительная частота события А. В тех случаях, когда классическое определение вероятности неприменимо (например, когда элементарные исходы не равновозможны, или когда их число бесконечно), используется статистическое определение вероятности. В этом случае за вероятность принимается относительная частота события. Относительная частота обнаруживает свойство устойчивости, то есть, если в одинаковых условиях проводить серии опытов, то в различных сериях относительная частота изменяется мало, колеблясь около некоторого числа.
§ 4. Теорема умножения вероятностей
Условной вероятностью события А по В (обозначение: P(A/B) или РВ(А)) называется вероятность события A, вычисленная в предположении, что событие B произошло. Условная вероятность определяется формулой
P(A/B) =
.
В
правой части этой формулы символ P понимается как вероятность в
рассматриваемом вероятностном пространстве (Ω,
,P). Функция P(A/B) определенная для
всех A ∈
, удовлетворяет аксиомам
теории вероятности 2), 3), 4) из §4, а именно
P(A/B) ≥ 0;
P(Ω/B) =
1; P(
+
/B)=P(
/B)+P(
/B), если
= Ø.
Теорема умножения.
P(AB) = P(A)P(B/A) = P(B)P(A/B).
Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого.
Из этой формулы по индукции можно получить более общую теорему умножения для n событий:
P(
…
) =
P(
)P(
/
)P(
/
)…P(
/
…
).
Вероятность
произведения n событий равна
вероятности первого события умноженной на условную вероятность второго при
условии, что первое произошло, умноженной на условную вероятность третьего
события при условии, что произошли первые два, и так далее, и умноженной на
условную вероятность
n-го события при
условии, что произошли все остальные.
События A и B называются независимыми, если выполняется хотя бы одна из следующих трех формул:
P(AB) = P(A)P(B); P(A/B) = P(A); P(B/A) = P(B).
§5. Формула полной вероятности
Пусть случайные события
,
,
…,
,
которые мы будем называть гипотезами, образуют полную группу попарно
несовместных событий, то есть выполняются следующие два отношения:
=
Ω и
⋂
= Ø при i ≠ j.
Если известно, что событие A
может произойти вместе с одним из событий
,
,
…,
,
то событие A можно
представить как объединение событий
,
,
…,
,
то есть
A =
+
+
… +
.
Тогда имеет место следующая формула
P(A)
=
(
)P(A/
).
Это формула называется формулой полной вероятности.
Пример. В тире 6 ружей. Вследствие разницы в пристрелке ружей вероятность попадания для двух из этих ружей 0.8, для трех 0.9, для одного 0.3. Найти вероятность попадания в цель при одном выстреле, если ружья выбираются наудачу.
Решение. Пусть событие A – попадание в цель при одном выстреле. Пусть событие Hi – выбор оружия из i-ой группы. Тогда
P(
) =
=
; P(
) =
=
; P(
) =
;
P(A/
) = 0.8; P(A/
) = 0.9; P(A/
) = 0.3;
P(A)
= P(
)P(A/
) + P(
)P(A/
) + P(
)P(A/
) =
≈
0.766.
В условиях предыдущего параграфа условная вероятность события Hi в предположении, что событие A уже имеет место, определятся по формуле Бейеса
P(
/A) =
=
(i=1, 2, …, n)
Вероятности P(
/A), вычисленные по формуле Бейеса, часто называют
апостериорными (то есть, вычисленными после опыта) вероятностями гипотез, в
отличие от P(
),
которые называют априорными (то есть известными до опыта).
Пример. Заготовка может попасть к двум рабочим. Вероятность того, что попадет к первому – 0.6, ко второму – 0.4. Вероятность того, что первый рабочий изготовит деталь без брака – 0.9, второй – 0.95. При проверке детали оказалось, что деталь изготовлена без брака. Найти вероятность того, что ее сделал первый рабочий.
Решение. Пусть событие
–
деталь попала к первому,
– ко второму, событие A
– деталь изготовлена без брака. Тогда
P(
/A) =
=
= 0.59.
§7. Повторение испытаний. Формула Бернулли
Пусть производится n независимых испытаний, в каждом из которых вероятность появления события A одна и та же и равна p, то вероятность того, что событие A появится в этих n испытаниях k раз вычисляется по формуле Бернулли
(k) =
,
где q = 1- p.
Число
называется
наивероятнейшим числом наступления события A в n
испытаниях, если
(
≥
при
≠
.
Число
можно
определить из двойного неравенства
np – q ≤
≤
np + p.
Разность граничных значений в этом двойном неравенстве равна
1. Если np+p не является
целым числом, то двойное неравенство определяет только одно наивероятнейшее
значение
.
Если же np+p – целое число,
то есть два наивероятнейших числа
=
np-q и
=
np+p.
Пример. Монета подбрасывается 5 раз. Найти вероятность того, что три раза выпадет герб. Найти наивероятнейшее число выпадений герба.
Решение.
p
= q = 0.5.
(3)
=
= ![]()
np+p = ![]()
Значит
=
np-q =
=
2 и
=
np + p =
=
3.
§8. Локальная и интегральная теоремы Лапласа. Формула Пуассона
В тех случаях, когда использование формулы Бернулли затруднено из-за большого значения n, можно использовать формулу из следующей теоремы.
Локальная теорема Лапласа.
Вероятность того, что в n
независимых испытаниях, в каждом из которых вероятность появления события равна
,
событие наступит ровно k
раз приближенно равна
,
где
=
-
функция Гаусса,
.
Имеются таблицы, в которых помещены значения функции
=
,
соответствующие положительным значениям аргумента x
(см. приложение, табл.1). Для отрицательных значений аргумента используют те же
таблицы, так как
.
При x > 4 можно считать, что
≈
0.
Интегральная теорема Лапласа.
Вероятность того, что в n
независимых испытаниях, в каждом из которых вероятность появления события равна
событие
наступит не менее
раз
и не более
раз,
приближенно равна
,
где
-
функция Лапласа,
,
.
Имеются таблицы функции Лапласа (см. приложение, табл.2) для
положительных значений x
(0 ≤ x ≤ 5). Для отрицательных значений используют эту же
таблицу, учитывая, что
.
Для значений x > 5 полагают
Ф
=
0.5.
При достаточно больших n, если вероятность события мала (p ≤ 0.1 и np ≤ 9), формула из локальной теоремы Лапласа непригодна. В этом случае используют формулу Пуассона.
![]()
Здесь λ = np.
Имеются таблицы для вычисления
при
различных λ и k (см.
приложение, табл.4).
Пример. Найти вероятность того, что событие A наступит ровно 50 раз в 100 испытаниях, если вероятность появления этого события в каждом испытании равна 0.51.
Решение. По условию задачи n = 100; k = 50; p = 0.51; q = 1 – p = 0.49. Так как n = 100 – достаточно большое число, воспользуемся формулой из локальной теоремы Лапласа
,
где
.
Найдем
значение x:
По
таблице 1 найдем
=
0.3910 (т.к. функция
четная).
Искомая
вероятность![]()
Пример. Вероятность поражения мишени стрелком при одном выстреле 0.8. Найти вероятность того, что при 100 выстрелах мишень будет поражена не менее 75 раз и не более 90 раз.
Решение.
По условию задачи n = 100;
= 75;
= 90; p = 0.8; q = 1 – p = 0.2. Воспользуемся формулой из интегральной теоремы
Лапласа:
,
где
- функция Лапласа,
,
. Вычислим
и
:
.
Так
как функция Лапласа нечетна, т.е.
, получим
.
В
таблице 2 найдем:
.
Искомая
вероятность:
.
Пример. Прядильщица обслуживает 1000 веретен. Вероятность обрыва нити на одном веретене в течение 1 минуты равна 0.004. Найти вероятность того, что в течение 1 минуты обрыв произойдет на пяти веретенах.
Решение. Так как вероятность p
= 0.004 очень мала, применение формулы из локальной теоремы Лапласа приведет к
значительному отклонению от точного значения
.
Поэтому при p ≤ 0.1 применяют формулу Пуассона:
, где λ = np.
По
условию задачи n = 1000; k = 5; p = 0.004. Тогда
.
Подставляя данные задачи, получим
.
Ниже в таблицах сведены все основные формулы раздела о случайных событиях.
|
Наименование |
Формула |
|
|
Теоремы сложения |
для двух событий |
|
|
для несовместных событий |
|
|
|
для противоположных событий |
|
|
|
для трех событий |
|
|
|
Наименование |
Формула |
|
|
Теоремы умножения |
для двух событий |
|
|
для независимых событий |
|
|
|
Вероятность наступления хотя бы одного из двух независимых событий A и B |
|
|
|
Формула полной вероятности события A |
|
|
|
Формула Бейеса |
|
|
|
Наименование |
Формула |
|
Формула Бернулли |
|
|
Наивероятнейшее число событий |
|
|
Вероятность наступления хотя бы одного события |
|
|
Число испытаний, обеспечивающее
с вероятностью |
|
|
Наименование |
Формула |
|
Локальная теорема Муавра-Лапласа: |
где
|
|
Интегральная теорема Муавра-Лапласа |
где
|
|
Отклонение частоты от вероятности |
где |
|
Теорема Бернулли |
|
|
Предельная формула Пуассона |
|
|
Приближенные формулы при больших n |
|
§9. Случайная величина и закон ее распределения
Случайной величиной называется величина, которая в результате испытания может принять то или иное значение, причем неизвестно заранее, какое именно.
Примеры.
1) Число вызовов на АТС в течение определенного промежутка времени.
2) Отклонение размера обрабатываемой детали от проектного номинала.
3) Время безотказной работы прибора.
4) Число бракованных изделий в партии из n штук.
Примеры 1), 4) отличаются от 2), 3). В первом случае случайные величины принимают лишь изолированные друг от друга значения, а возможные значения вторых заполняют сплошь некоторый интервал. В связи с этим различают два вида случайных величин: дискретные и непрерывные.
Случайная величина, возможные значения которой можно перенумеровать, называется дискретной. При этом число значений может быть конечным или бесконечным.
Непрерывной называется случайная величина, которая может принимать все значения из некоторого конечного или бесконечного промежутка.
Соотношение, устанавливающее тем или иным способом связь между возможными значениями случайной величины и их вероятностями, называется законом распределения случайной величины.
Закон распределения дискретной случайной величины может быть задан в виде:
P(X=
).
Здесь
есть
вероятность того, что случайная величина X
примет значение
(строго
говоря,
есть
вероятность события, соответствующего множеству элементарных исходов, каждому
из которых соотнесено значение
случайной
величины X).
В случае конечного числа возможных значений дискретной случайной величины X закон распределения можно задать в табличной форме в виде ряда распределения
|
|
|
|
|
|
… |
|
|
|
|
|
|
|
… |
|
При этом имеет место условие нормировки:
,
где суммирование распространяется на все (конечное или бесконечное) множество возможных значений данной случайной величины X.
Для непрерывных случайных величин такой способ задания закона распределения неприменим. Закон распределения непрерывной случайной величины удобно задавать с помощью, так называемой функции распределения вероятностей.
Функцией распределения вероятностей F(x) случайной величины X называется вероятность того, что случайная величина примет значение меньше чем x, т.е.
.
Функция F(x) существует как для дискретных, так и для непрерывных случайных величин. Для дискретных случайных величин функция распределения вероятности определяется равенством
.
Отметим важнейшие свойства функции распределения вероятности:
1) F(x) – неубывающая функция,
2) F(-∞)=0,
3) F(+∞)=1.
Плотностью вероятности f(x) случайной величины X называют первую производную от функции распределения непрерывной случайной величины:
.
Вероятность
того,
что значение, принятое случайной величиной X
попадет в промежуток (a,b),определяется равенством

График функции f(x) называется кривой распределения. Геометрически вероятность попадания случайной величины в промежуток (a,b) равна площади соответствующей криволинейной трапеции, ограниченной кривой распределения, осью Ox и прямыми x = a, x = b. Функция плотности вероятности f(x) обладает следующими свойствами
1)
(неотрицательность),
2)
(условие
нормировки).
Если все значения случайной величины X заключены в промежутке (a,b), то последнее равенство можно записать в виде
.
Зная функцию плотности вероятности f(x) можно найти интегральную функцию распределения вероятностей F(x) формуле
.
§10. Математическое ожидание и дисперсия случайной величины
Математическим ожиданием дискретной случайной величины Х называется сумма произведений значений случайной величины на вероятности этих значений:
M(X)=
.
Если n=∞, то
M(X)=
,
при условии, что ряд абсолютно сходится.
Математическое ожидание непрерывной случайной величины Х определяется равенством
M(X
,
при условии, что интеграл абсолютно сходится. Здесь f(x) – плотность вероятности случайной величины Х.
Геометрически математическое ожидание как непрерывной, так и дискретной случайной величины равно абсциссе центра тяжести площади, ограниченной кривой (или полигоном) распределения и осью абсцисс.
Дисперсией случайной величины называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:
D(X)=M[X-M(X)
.
Формула для вычисления дисперсии дискретной случайной величины X
D(X)=
,
а для непрерывной случайной величины Х
D(X)=
.
Для дисперсии случайной величины справедлива формула
D(X)=M[
]-
[M(X)
,
где а – произвольное число.
Средним квадратичным отклонением случайной величины Х называется квадратный корень дисперсии
=![]()
Математическое ожидание и дисперсия показывают наиболее существенные особенности распределения случайной величины. Так, например, знание математического ожидания числа выбиваемых очков у стрелков, позволяет определить, кто и них лучше стреляет (без знания результатов каждого выстрела). Однако, математическое ожидание еще не дает представления о возможных значениях случайной величины.
Дисперсия характеризует разбросанность возможных значений случайной величины от математического ожидания .
Пример. В темной комнате 7 красных кубиков и 8 синих, не отличаемых друг от друга на ощупь. Мальчик вынес три кубика. Х – случайная величина числа красных кубиков среди вынесенных. Найти закон распределения, математическое ожидание, дисперсию и среднее квадратичное отклонение случайной величины Х. Построить график функции распределения.
Решение.
Возможные значения случайной величины Х:0,1,2,3. Пусть им соответствуют
вероятности
,
,
,
.Найдем их
значения:
=
=
=
,
=
=
=
,
=
=
=
,
=
=
=
,
Таким образом, закон распределения имеет вид:
|
|
0 |
1 |
2 |
3 |
|
|
|
|
|
|
Найдем M(X):
M(X)
=
+
+
+
=
0*
+
1*
+
2*
+
3*
=
1,4 .
Дисперсию будем искать по формуле
D(X)
= M
-
.
Составим
закон распределения для ![]()
|
x |
0 |
1 |
2 |
3 |
|
|
|
|
|
|
M(
)
= 1*
+
4*
+
9*
=
2.6 D(X)
= 2.6 – (
)
= 0.64
Среднее квадратичное
отклонение
=
=
=
0.8
Найдем функцию распределения согласно формуле для дискретных случайных величин
F(x)
.
F(x) =

Построим график функции распределения:
1.0 F(x)
0.6
0.2
1 2 3 4 х
Пример. Дана функция плотности распределения

Найти:
параметр А;
построить графики плотности и функции распределения;
вероятность Р(1<x<4);
числовые
характеристики M(X), D(X),
(X);
вероятность Р(|X-M(X)|<1) того, что отклонение значения случайной величины от М(Х) будет не более 1.
Решение.
Так
как
=
1, получаем
=
2.
A
=
6A = 1.A =
.
Итак,

Найдем интегральную функцию распределения по формуле
F(x)
=
.
Если х
=
=
0.
Если 0<x<2
, F(x)=
+
=
+
.
Если 2
F(x)=
+
+
=(
+
)|
=
1.
2. Построим оба графика
3. Найдем Р(1<X<4).
Так как Р(
)
= F(
)
– F(
)
= F(4) – F(1)
= 1 –
=
.
4. Найдем математическое
ожидание М(Х) по формуле: М(Х) =
.
M(X)
=
=
=
.
Дисперсия вычисляется
по формуле: D(X)
= M
-
.
M
=
=
=
.
D(X)
=
-
=
.
Среднее квадратичное
отклонение
=
Следовательно,
0.57
.
5. Найдем P(|X-M(X)|
< 1). Так как, из того, что |X-M(X)|<1,
следует М(Х)-1 < X < M(X)+1,
то в нашей задаче
-1
< X <
+1
или
<
X <
,
то
P
=
1-
0.962
.
Биноминальное распределение. Распределение Пауссона
Если вероятность наступления случайного события в каждом испытании равна р, то вероятность того, что при n испытаниях событие осуществится k раз, определяется формулой Бернулли:
P(X=k) =
=
.
Закон
распределения случайной величины Х, которая может принимать n+1 значений
(0,1,..,n), описываемый
формулой Бернулли, называется биноминальным или распределением
Бернулли. Закон назван биноминальным потому, что
можно
рассматривать как общий член разложения бинома Ньютона
+
q
+… +
.
Математическое ожидание биноминальной случайной величины Х
М(Х) = np,
дисперсия
D(X) = npq.
Закон распределения случайной величины Х, которая может принимать любые целые неотрицательные значения (1,2,..,n,..) описываемый формулой
P(X=k) =
,
носит название закон (распределение) Пуассона.
Если
N равно среднему
числу вызовов абонентов, поступающих за один час на данную телефонную станцию,
то число вызовов, поступающих за одну минуту, приближенно распределяется по
закону Пуассона, причем a =
.
Математическое ожидание случайной величины Х распределенной по закону Пуассона
M(X) = a,
дисперсия
D(X) = a.
Пример. Автоматическая телефонная станция получает в среднем за час 300 вызовов. Какова вероятность того, что за одну минуту она получает два вызова?
Решение. За минуту АТС
получает в среднем
=
5 вызовов, т.е а=5. Требуется определить Р(Х=2). Применив формулу Пуассона,
находим
P(X=2)
=
=
0.09
.
§12. Непрерывные распределения
Равномерное, нормальное и показательное распределения
Равномерным называется распределение вероятностей непрерывной случайной величины Х, если на интервале (a,b), которому принадлежат все возможные значения Х, плотность вероятностей случайной величины сохраняет постоянное значение, а именно
f(x) =
.
вне этого интервала f(x) = 0.
Математическое ожидание равномерно распределенной случайной величины Х и её дисперсия равны соответственно
M(X) =
, D(X) =
.
Нормальным называется распределение вероятностей
непрерывной случайной величины Х, плотность которого имеет вид
> 0)
f(x) =
,.
Нормальное распределение определяется двумя
параметрами m и
.
Так как
= m, то параметр m является математическим ожиданием; а из
=
следует что D(X) =
, т.е.
является средним квадратичным отклонением величины Х.
|
График функции плотности нормального распределения
вероятностей для значений σ = 0,5; 1; 2. |
σ = 1 σ = 2 σ = 0,5 |
Для случайной величины Х, распределенной по нормальному закону, вероятность того, что Х примет значение принадлежащее интервалу (a,b) определяется по формуле
P(a < X < b) = Ф
Ф
,
где Ф(х) – функция Лапласа.
Вероятность отклонения нормально распределенной случайной величины от ее математического ожидания менее чем на δ равна:
P(|X-m|<
δ) = 2Ф
.
Из последней формулы легко получить правило трех сигм: если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратичного отклонения с вероятностью 0.9973, то есть
P(|X-m|< 3
) = 0,09973.
Функция распределения нормально распределенной случайной величины Х
F(X) =
+ Ф
.
Широкое распространение нормально распределенных величин на практике, и, следовательно, их важность, определяется следующим фактом: если случайная величина Х представляет собой сумму большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение близкое к нормальному. В качестве примеров можно привести урожайность (влияет множество независимых факторов ), суммарная ошибка при измерении физической величины каким-либо прибором (влияет температура, состояние прибора, условия измерения).
Пример. Масса вагона – случайная величина, распределенная по нормальному закону с математическим ожиданием 65 тонн и средним квадратичным отклонением 0,9 тонн. Найти вероятность того, что вагон имеет массу не более 67 тонн и не менее 64 тонн. По правилу трех сигм найти наибольшую и наименьшую границы предполагаемой массы.
Решение. Для нормально распределенной случайной величины
P(a < X < b) = Ф
- Ф
,
то есть
P(64 < X < 67)
= Ф
- Ф
= Ф
+ Ф
=
= 0.4868 + 0.3665 = 0.8533 .
По правилу трёх сигм наименьшая граница a -
, наибольшая a
, таким образом 65
3*0.9 = 65
2.7 . Наименьшая граница 62.3 тонны и наибольшая 67.7 тонны.
Показательным (экспоненциальным) называется распределение вероятностей непрерывной случайной Х, плотность которого есть
.
Математическое ожидание показательного распределения и дисперсия имеют одинаковое значение
M(X) = D(X) =
.
|
λ = 2 λ = 1 λ = 4 |
График функции
плотности показательного распределения вероятностей |
Если Х – непрерывная случайная величина,
выражающая продолжительность времени безотказной работы какого-либо элемента, а
– интенсивность отказов (среднее число отказов в единицу
времени), то продолжительность времени t безотказной работы этого элемента можно
считать случайной, распределенной по показательному закону с функцией
распределения
F(X < t) = 1 -
,
которая определяет вероятность отказа элемента за время t.
Функция надежности R(t) определяет вероятность безотказной работы элемента за время t:
R(t)=
.
Пример. Вероятность безотказной работы элемента
распределена по показательному закону f(t) = 0.02
,(t
). Найти вероятность того, что за t=50 часов элемент: 1) не откажет; 2) откажет.
Решение.
1) Используя функцию надежности R(t)=
, получим R(50) =
= 0.3679.
2) P(T < 50) = F(50) = 1
-
= 0.6321.
Ниже в таблицах сведены все основные формулы раздела об одномерных случайных величинах.
Числовые характеристики одномерной случайной величины
x-
случайная величина;
- центрированная случ.
величина


Основные законы распределения случайных величин

Применение функции Лапласа
:
|
Вероятность попадания случайной величины в заданный интервал: |
|
|
Вероятность отклонения от среднего значения: |
|
|
«Правило трёх сигм»: |
|
§13. Системы случайных величин
Результат опыта может описываться не одной
случайной величиной Х, а несколькими случайными величинами:
,
,…,
В этом случае говорят, что случайные величины образуют
систему (
) .
Систему двух случайных величин (X, Y) можно изобразить случайной точкой на плоскости.
Событие, состоящее в попадании случайной точки (Х, Y) в область D, принято обозначить в виде (X, Y) ⊂ D.
Закон распределения системы двух дискретных случайных величин может быть задан с помощью таблицы
|
X |
|
|
… |
|
|
|
|
|
… |
|
|
|
|
|
|
|
|
. . . |
. . . |
. . . |
. . . |
. . . |
|
|
|
|
|
|
Где
<
< . . . <
,
<
< . . . <
,
- вероятность события, заключающегося в одновременном
выполнении равенств X=
, Y=
. При этом
= 1. Таблицы может содержать бесконечное количество строк и
столбцов.
Функцией распределения двумерной случайной величины (X, Y) называют функцию F(X, Y), определяющую для каждой пары чисел х, y вероятность того, что Х примет значение меньшее х и при этом Y примет значение меньшее y:
F(x, y) = P(X < x, Y < y).
Геометрически это равенство означает, что F(X, Y) есть вероятность того, что случайная точка (X, Y) попадет в бесконечный квадрат с вершиной (x, y) (заштрихованный), расположенный левее и ниже этой вершины
![]() |
Функция распределения двумерной дискретной случайной величины определяется равенством
F(x, y) = P(X<x, Y<y) =
.
Зная закон распределения двумерной дискретной случайной величины, можно найти законы распределения каждой составляющей
P(X=
) =
; P(Y=
) =
.
Пример. Найти закон распределения составляющих двумерной случайной величины, заданной законом распределения
|
X |
|
|
|
|
|
0.10 |
0.30 |
0.20 |
|
|
0.06 |
0.18 |
0.16 |
Решение.
Сложив вероятности по столбцам, получим вероятности возможных значений Х:
P(X=
) = 0.16; P(X=
) = 0.48; P(X=
) = 0.36 .
Сложив вероятности по строкам, получим вероятность возможных значений Y:
P(Y=
) = 0.60; P(Y=
) = 0.40 .
Закон распределения системы непрерывных
случайных величин (X, Y) можно задать функцией плотности вероятности f(x, y) или
функцией распределения
F(x, y).
Функция плотности вероятности обладает следующими свойствами:
f(x, y)
(неотрицательность);
(условие нормировки).
Функция распределения системы непрерывных величин (X, Y) определяется равенством
F(x, y) = P(X<x, Y<y) = ![]()
Свойства функции распределения двумерной случайной величины.
Значения функции распределения удовлетворяют двойному неравенству
0![]()
F(x, y) есть неубывающая функция по каждому аргументу, т.е.
F(
,y)
если
,
F(x,
)
F(x,
), если
<
.
Имеют место предельные соотношения:
F(-
) = 0, F(x,-
) = 0, F(-
-
) = 0, F(
) = 1.
При y=
функция распределения системы становится функцией
распределения составляющей Х:
(x) = F(x,
) = ![]()
Продифференцировав обе части этого равенства по х, получим плотность распределения компоненты Х:
(x) =
=
.
При х=
функция распределения системы становится функцией
распределения составляющей Y:
(y) = F(
) = ![]()
Продифференцировав обе части этого равенства по y, получим плотность распределения компоненты Y:
(y) =
=
.
Пример. Дана плотность двумерной случайной величины
f(x, y) =![]()
Найти плотности компонент
(y).Решение.
=
=
|
=
=
. Аналогично,
=
.
Пример. Найти вероятность попадания случайной точки в полу-полосу
< X <
и Y < y.
Решение. Вычитая из вероятности попадания
случайной точки в квадрант с вершиной (
) вероятность попадания точки в квадрант с вершиной (
, y) получим
P{
< X <
Y < y} = F(
, y) – F(
, y).
Математические ожидания дискретных случайных величин X, Y входящих в систему, определяются по формулам
= M(X) =
,
= M(Y) =
,
а математические ожидания непрерывных случайных величин – по формулам
= M(X) =
= M(Y) = ![]()
Точка (
) называется центром рассеивания системы
случайных величин (X, Y).
Дисперсии дискретных случайных величин Х и Y определяются по формулам
D(X) =
, D(Y) =
.
Дисперсии непрерывных случайных величин Х и Y, входящих в систему, определяются по формулам
D(X) =
,
D(Y) =
.
Средние квадратичные отклонения случайных величин Х и Y определяются по формулам
,
.
§14. Зависимые и независимые случайные величины.
Корреляционный момент. Коэффициент корреляции и его свойства
Две случайные величины независимы, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. Необходимые и достаточные условия независимости устанавливаются в следующей теореме.
Теорема. Для того
чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы
функция распределения системы F(х, у) была равна произведению функций
распределения компонент
:
F(x,y) =
.
Следствие. Для того,
чтобы непрерывные случайные величины X и Y были независимыми, необходимо и достаточно, чтобы
плотность распределения системы f(х,у) была равна произведению плотностей распределения
компонент
:
f(x,y) =
.
Корреляционным моментом Кxy случайных величин Х и Y называют математическое ожидание произведения отклонений этих величин от своих математических ожиданий
=
M[(X – M(X))
(Y
– M(Y))].
Для вычисления корреляционного момента дискретных величин пользуются формулой
=
,
а для непрерывных величин
= ![]()
Справедлива следующая теорема
Теорема. Корреляционный момент двух независимых случайных величин X и Y равен нулю.
Обратное утверждение неверно. То есть, из равенства нулю корреляционного момента не следует, что случайные величины X и Y независимы.
Коэффициентом корреляции
случайных величин Х и Y называют отношение корреляционного
момента
к произведению средних квадратичных отклонений этих величин:
.
Коэффициент
корреляции
не зависит от выбора единиц измерения случайных величин, это
- безразмерная величина. Коэффициент корреляции удовлетворяет условию
1 ≤
≤ 1.
Коэффициент корреляции характеризует не всякую зависимость, а только линейную. Если случайные величины Х и Y связаны линейной зависимостью
Y = a·X+b,
то
= ±1, знак минус или плюс берется в зависимости от того,
отрицателен или положителен коэффициент a.
Две случайные величины Х и Y называют коррелированными, если их корреляционный момент (или коэффициент корреляции) отличен от нуля; Х и Y называют некоррелированными величинами, если их корреляционный момент равен нулю.
§15. Математическое ожидание суммы и произведения двух случайных величин. Дисперсия суммы двух случайных величин
Математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий
M[X+Y] = M[X]+M[Y].
Эта формула справедлива для любых случайных величин - как зависимых, так и независимых.
Дисперсия суммы двух случайных величин равна сумме их дисперсий плюс удвоенный корреляционный момент:
D[X+Y] = D[X] + D[Y] + 2·
.
Это следует из следующего доказательства
D[X+Y] = M[(X+Y-M[X+Y])²] = M[X-M[X]+Y-M[Y])²] =
= M[(X-M[X])²+M[(Y-M[Y])²]+2·M[(X-M[X])(Y-M[Y])]=
= D[X]+D[Y]+2·
.
Для независимых случайных величин
D[X+Y] = D[X]+D[Y].
Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:
M[X·Y]=M[X] M[Y]+
.
Доказательство.
= M[(X-M[X])(Y-M[Y])]=
M[X•Y]-M[X]•M[Y]-M[Y]•M[X] + M[X]•M[Y] + M[X•Y]-M[X]•M[Y],
что равносильно доказываемой формуле.
Для независимых случайных величин
M[X•Y] = M[X]•M[Y].
Ниже в таблицах сведены все основные формулы раздела об двумерных случайных величинах.

Умножение законов распределения двумерной случайной величины

Вычисление распределений компонент двумерной случайной величины

Условные
распределения компонент двумерной случайной величины

Числовые характеристики двумерной
случайной величины

Характеристики связи двумерной случайной величины

График плотности двумерного
нормального распределения
при
§16. Предельные теоремы теории вероятностей.
Закон больших чисел и центральная предельная теорема
Для практики очень важно знание условий, при выполнении которых совокупное действие очень многих случайных причин приводит к результату, почти не зависящему от случая. Эти условия и указываются в теоремах, носящих общее название закона больших чисел. К ним относятся теоремы Чебышева и Бернулли.
Теорема Чебышева устанавливает связь между
средним арифметическим наблюденных значений случайной величины и ее
арифметическим математическим ожиданием
.
Теорема Чебышева. При достаточно большом числе n независимых опытов среднее арифметическое наблюденных значений случайной величины сходится по вероятности к ее математическому ожиданию, то есть
P(|
ε) > 1
– δ,
где ε, δ произвольно малые положительные числа.
Пусть m раз в n независимых опытах произошло
событие A, в каждом из которых вероятность его появления постоянна и равна р.
Теорема Бернулли устанавливает сходимость частоты события A (
) к его вероятности (р) при n→∞.
Теорема Бернулли. При неограниченном увеличении числа опытов n частота (
) события А сходится по вероятности к его вероятности p, то есть
P(|
ε) > 1 – δ,
где ε, δ произвольно малые положительные числа.
Предельные законы распределения составляют предмет другой группы теорем – центральной предельной теоремы. Все формы центральной предельной теоремы посвящены установлению условий, при которых возникает нормальный закон распределения. Он возникает во всех случаях, когда исследуемая случайная величина может быть представлена в виде сумы достаточно большого числа независимых элементарных слагаемых, каждое из которых в отдельности мало влияет на сумму.
Центральная предельная теорема. Если
,
, …,
– независимые случайные величины, имеющие один и тот же
закон распределения с математическим ожиданием m и дисперсией s², то при неограниченном увеличении n закон
распределения суммы
, где

неограниченном приближается к нормальному.