Априорная вероятность — различия между версиями
Muyyd (обсуждение | вклад) |
Muyyd (обсуждение | вклад) |
||
Строка 1: | Строка 1: | ||
− | "Априорная [[вероятность]]" или "априорные [[шансы]]" или просто "априорные" отсылают к состоянию убежденности, приобретенному до наблюдения | + | "Априорная [[вероятность]]" или "априорные [[шансы]]" или просто "априорные" отсылают к состоянию убежденности, приобретенному ''до'' наблюдения нового свидетельства. Предположим, у нас есть два подозреваемых в совершении убийства: полковник Усач и мисс Скарлет. Вскрытие [[Свидетельство|показало, что причиной смерти было отравление]], и теперь вы думаете, что вероятности того, что Усач или Скарлет совершили убийство составляют 25% и 75%, соответственно. До того как появилась информация о причине смерти, вы, возможно, думали, что шансы были равны (50% на 50%). Т.е. в данном случае вы оценивали априорную вероятность, что мисс Скарлет совершила убийство в 50%, а ваша "апостериорная вероятность" составила 75%. Т.е. апостериорная вероятность отсылает к состоянию убежденности, приобретенному ''после'' наблюдения нового свидетельства. |
Априорная вероятность гипотезы <math>H</math> часто записывается с безусловной нотацией <math>\mathbb P(H)</math>, а апостериорную (после наблюдения [[Свидетельство|свидетельства]] <math>e</math>) часто записывают как [[Условная вероятность|условную вероятность ]] <math>\mathbb P(H\mid e).</math> [http://bayes.wustl.edu/ E. T. Jaynes] настаивал на использовании ясной нотации <math>\mathbb P (H\mid I_0)</math> для обозначения априорной вероятности <math>H</math>, где <math>I_0</math> означает априорную, и на том, чтобы никогда не записывать полностью безусловную вероятность <math>\mathbb P(X)</math>. Ведь, по словам Джейнса, у нас всегда есть какая-то предварительная информация. Однако, это скорее эвристика, а не закон, ведь может быть ложной для некоторых сложных проблем. Если мы уже пронаблюдали <math>e_0</math> и теперь апдейтимся на <math>e_1</math>, то для новой задачи новая априорная будет <math>\mathbb P(H\mid e_0)</math>, а новая апостериорная будет <math>\mathbb P(H\mid e_1 \wedge e_0).</math> | Априорная вероятность гипотезы <math>H</math> часто записывается с безусловной нотацией <math>\mathbb P(H)</math>, а апостериорную (после наблюдения [[Свидетельство|свидетельства]] <math>e</math>) часто записывают как [[Условная вероятность|условную вероятность ]] <math>\mathbb P(H\mid e).</math> [http://bayes.wustl.edu/ E. T. Jaynes] настаивал на использовании ясной нотации <math>\mathbb P (H\mid I_0)</math> для обозначения априорной вероятности <math>H</math>, где <math>I_0</math> означает априорную, и на том, чтобы никогда не записывать полностью безусловную вероятность <math>\mathbb P(X)</math>. Ведь, по словам Джейнса, у нас всегда есть какая-то предварительная информация. Однако, это скорее эвристика, а не закон, ведь может быть ложной для некоторых сложных проблем. Если мы уже пронаблюдали <math>e_0</math> и теперь апдейтимся на <math>e_1</math>, то для новой задачи новая априорная будет <math>\mathbb P(H\mid e_0)</math>, а новая апостериорная будет <math>\mathbb P(H\mid e_1 \wedge e_0).</math> |
Версия 06:19, 3 ноября 2017
"Априорная вероятность" или "априорные шансы" или просто "априорные" отсылают к состоянию убежденности, приобретенному до наблюдения нового свидетельства. Предположим, у нас есть два подозреваемых в совершении убийства: полковник Усач и мисс Скарлет. Вскрытие показало, что причиной смерти было отравление, и теперь вы думаете, что вероятности того, что Усач или Скарлет совершили убийство составляют 25% и 75%, соответственно. До того как появилась информация о причине смерти, вы, возможно, думали, что шансы были равны (50% на 50%). Т.е. в данном случае вы оценивали априорную вероятность, что мисс Скарлет совершила убийство в 50%, а ваша "апостериорная вероятность" составила 75%. Т.е. апостериорная вероятность отсылает к состоянию убежденности, приобретенному после наблюдения нового свидетельства.
Априорная вероятность гипотезы Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle H} часто записывается с безусловной нотацией Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle \mathbb P(H)} , а апостериорную (после наблюдения свидетельства Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle e} ) часто записывают как условную вероятность Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle \mathbb P(H\mid e).} E. T. Jaynes настаивал на использовании ясной нотации Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle \mathbb P (H\mid I_0)} для обозначения априорной вероятности Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle H} , где Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle I_0} означает априорную, и на том, чтобы никогда не записывать полностью безусловную вероятность Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle \mathbb P(X)} . Ведь, по словам Джейнса, у нас всегда есть какая-то предварительная информация. Однако, это скорее эвристика, а не закон, ведь может быть ложной для некоторых сложных проблем. Если мы уже пронаблюдали Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle e_0} и теперь апдейтимся на Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle e_1} , то для новой задачи новая априорная будет Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle \mathbb P(H\mid e_0)} , а новая апостериорная будет Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://en.wikipedia.org/api/rest_v1/»:): {\displaystyle \mathbb P(H\mid e_1 \wedge e_0).}
Подробней про вопрос, откуда же в принципе берутся априорные смотрите статью про индукцию Соломонова
Статьи по теме
- Bayes' rule
- Prior probability
- Каталог статей гайда по ТБ: Теорема Байеса