Теория вероятностей. Афанасьев В.В.

М.: 2007.— 350 с.

В пособии изложены основные идеи теории вероятностей, математической статистики, энтропии и информации. Каждая глава содержит перечень опорных понятий, теорем, умений, навыков, методов и алгоритмов. В начале параграфов даются краткие теоретические сведения, содержание которых раскрывается вопросами для самоконтроля, решенными примерами и трехуровневой системой задач. Учебное пособие адресовано студентам высших учебных заведений.

Формат: pdf / zip

Размер: 1,4 Мб

Скачать: rusfolder.com

RGhost


Содержание
Введение 6
Глава I. Элементы комбинаторики 9
1.1. Опорная таблица 10
1.2. Методы 12
1.3. Алгоритмы 12
1.4. Спираль фундирования понятия комбинаторной задачи 12
§ 1. Выборки и случай 13
§ 2. Основные правила комбинаторики 16
§ 3. Методы комбинаторики 20
§ 4. Графы 25
Глава II. Случайные события 32
2.1. Опорная таблица 33
2.2. Методы 35
2.3. Алгоритмы 35
2.4. Спираль фундирования понятия вероятности случайного события 35
§ 1. Классическая вероятность 36
§ 2. Условные вероятности 43
§ 3. Формула полной вероятности и формула Байеса 48
§ 4. Схема Бернулли 53
§ 5. Приближенные формулы для схемы Бернулли 57
§ 6. Вероятность и числовые ряды 61
§ 7. Цепи Маркова 70
§ 8. Аксиоматика теории вероятностей 78
Глава III. Случайные величины 84
3.1. Опорная таблица 85
3.2. Методы 89
3.3. Алгоритмы 89
3.4. Спираль фундирования случайных величин 89
§ 1. Закон и функция распределения дискретной случайной величины 90
§ 2. Числовые характеристики дискретных случайных величин 95
§ 3. Классические распределения 102
§ 4. Случайные величины и азартные игры 109
§ 5. Закон больших чисел 117
§ 6. Непрерывные случайные величины и их характеристики 123
§ 7. Нормальный закон распределения 130
§ 8. Двумерные случайные величины 135
§ 9. Характеристики двумерных случайных величин 141
§ 10. Корреляционный граф многомерных случайных величин 148
Глава IV. Энтропия и информация 156
4.1. Опорная таблица 156
4.2. Методы 159
4.3. Алгоритмы 159
4.4. Спираль фундирования энтропии и информации 159
§ 1. Энтропия как мера неопределенности 160
§ 2. Условные энтропии 164
§ 3. Энтропия случайных величин 170
§ 4. Энтропия цепей Маркова 173
§ 5. Количество информации 179
§ 6. Информация и логические задачи 184
§ 7. Кодирование и декодирование 190
§ 8. Блочные коды 196
§ 9. Коды Фано и Хаффмана 200
Глава V. Математическая статистика 208
5.1. Опорная таблица 209
5.2. Методы 213
5.3. Алгоритмы 213
5.4. Спираль фундирования выборочных характеристик 213
§ 1. Вариационный и статистический ряд 214
§ 2. Выборочные характеристики вариационного ряда 223
§ 3. Доверительный интервал 231
§ 4. Выборочный коэффициент корреляции 237
§ 5. Ранговая корреляция 248
§ 6. Статистические гипотезы 257
§ 7. Критерии Пирсона и Стьюдента 265
§ 8. Математическая статистика в психологии 277
§ 9. Статистические методы в педагогике 291
Ответы 305
Указатель обозначений 322
Приложения 327
Литература 349