Меню
Главная
Авторизация/Регистрация
 
Главная arrow Информатика arrow БИОИНФОРМАТИКА
Посмотреть оригинал

Байесова статистика

Классическая и байесова вероятности. Байесов вывод

Обычное (классическое) понятие вероятности связано с частотой наступления определенного исхода в серии случайных испытаний. Когда говорят о вероятности события X, равной Р(Х) = 1/2, имеют в виду, что после проведения серии из п испытаний примерно в п/2 исходов ожидается наступление события X. Следует обратить внимание, что сказанное не гарантирует наступления события X точно п/2 раз именно в данной серии испытаний. Мы лишь можем утверждать, что это число будет близко к п/2. Ответы на вопросы «Как часто?» и «Насколько близкие к п/2 значения ожидаются при проведении новых серий испытаний?» можно получить из теории вероятности и математической статистики. И наоборот, в случае если истинная вероятность наступления события нам неизвестна, мы можем оценить ее, отталкиваясь от частоты наступления в серии испытаний:

где РХ) — частота возникновения события X как оценка вероятности данного события; N(X) — количество испытаний, в ходе которых наступило событие X; N — общее число испытаний.

При этом классический подход также дает нам возможности определить значимость полученной оценки.

Байесова вероятность идет несколько дальше частотного подхода, позволяя рассуждать о вероятности любых утверждений (моделей) на основании имеющихся данных.

Прежде чем переходить к более подробному рассмотрению вопроса, следует ввести ряд терминов. Так, если мы имеем два разных случайных события X и Y, то можем рассмотреть вероятность их совместного выпадения Р(Х, Y). В случае, когда события независимы, эта вероятность будет равна произведению вероятностей исходных событий

Если же события X и Y не являются строго независимыми, то имеет смысл говорить об условной вероятности наступления одного из событий (например, X) при условии наступления другого (Y):

Соответственно, зная условную вероятность и исходную вероятность наступления события-«условия» (P(Y)), мы можем определить вероятность совместного события:

Используя формулы (2.52) и (2.53), мы можем менять местами причину со следствием, т.е. условие (P(Y)) с условным событием (Р(Х У)), и наоборот:

Эго и есть формула Байеса (формула байесовой вероятности) и основа байесова вывода. Ценность данной формулы состоит в том, что, принимая за условие Y не простую частотную вероятность, а вероятность модели, согласно которой происходит некоторое событие X, мы можем уточнить эту вероятность на основании имеющихся наблюдений события X. Перепишем эту формулу в терминах модели М и наблюдаемых данных I):

где Р(М,) называется априорной вероятностью и демонстрирует вероятность i-го варианта модели события. Когда речь идет о вероятностях вариантов модели, чаще всего подразумевается вероятность выбора конкретных значений скрытых параметров в рамках определенной модели (см. ниже). P(D | Mj) называется функцией правдоподобия и показывает вероятность получить данные D при использовании варианта модели Мг Наконец, P(D | М) называется априорной вероятностью получить данные D при любых вариантах модели М. Для дискретного распределения моделей эту вероятность можно рассчитать, используя правило суммы:

суммирование ведется по всем вариантам моделей М.

В такой форме записи байесов вывод становится интуитивно понятен, так как в числителе у нас находится полная вероятность выбора конкретного варианта модели и получения наблюдаемых данных с помощью этого варианта модели, а в знаменателе — сумма таких же вероятностей для всех возможных вариантов модели.

Рассмотрим простой пример байесова вывода для модели подбрасывания монет. В данной модели у нас имеются настоящие (Р (орел) = Р (решка) = 0,5) и фальшивые (Р (орел) = 0,3, Р (решка) = 0,7) монетки, что эквивалентно двум вариантам модели М: Мн и Мф. В ходе испытания мы берем монету из кучи и подбрасываем ее. В результате испытания получаем значение орел/решка. Скрытым параметром модели (вариант модели) будет тип выбранной монетки. Поскольку до первого подбрасывания монеты у нас нет оснований отдавать предпочтение одному из вариантов модели, то логично будет использовать равномерное распределение вариантов модели в качестве априорного, что дает Р(МН) = Р(Мф) = 0,5.

Сразу после первого подбрасывания монеты мы можем получить апостериорную вероятность того, что мы выбрали настоящую монету.

В случае если выпал орел, изменение вероятности будет в сторону поддержки мнения, что мы выбрали настоящую монету, так как вероятность выбросить орел больше именно в этом случае:

В случае выпадения решки ситуация будет противоположна:

Очевидно, выпадение орла свидетельствует в пользу того, что мы выбрали настоящую монету, а выпадение решки, наоборот, в пользу выбора фальшивой.

Еще один важный момент байесова вывода состоит в том, что для серии событий Dj возможно постепенное уточнение данных о корректности модели М путем последовательного применения формулы (2.55):

 
Посмотреть оригинал
< Предыдущая   СОДЕРЖАНИЕ   Следующая >
 

Популярные страницы