Теорема Байеса
Теперь мы можем распространить вероятность гипотезы h на данные е, напрямую зависящую от предварительной вероятности и предсказательной силы, которыми обладает h, а также находящуюся в обратной зависимости от предварительной вероятности, которой обладает с, – и облечь всё это в символическую форму. Пусть k – это наше фоновое знание об устройстве мира, е – это явления, которые нужно объяснить, и другие релевантные наблюдаемые данные, h – наша гипотеза, а Р(h|e&k) – это функция предварительной вероятности, которой обладает h, P(h|k) и ее объяснительной силы по отношению к е. Последняя возрастает вместе с предсказательной силой, которой обладает h, Р(e|h&k), и снижается вместе с предварительной вероятностью, которой обладает е, P(e|k). Р(e|h&k) – это мера вероятности того, что наблюдаемый феномен е должен возникнуть, если гипотеза h верна (при нашем заданном фоновом знании k). Таким образом, следует ожидать, что чем больше h будет повышать вероятность е, тем больше будет отношение Р(e|h&k) к P(e|k). P(e|k) определяет предварительную вероятность, которой обладает е, то есть насколько вероятно возникновение е независимо от h, лишь при заданном k. Очевидно, что чем больше данных мы имеем, чем более разнообразными и в других отношениях необъяснимыми данными мы располагаем, тем ниже (относительно Р(e|h&k)) будет P(e|k) и, опять же, тем выше будет отношение Р(e|h&k) к P(e|k).
Всё это проясняется основной теоремой теории подтверждения – теоремой Байеса>11, которая выглядит следующим образом
Эта теорема напрямую следует из аксиом, на которых построена математическая теория вероятности, поскольку их истинность покоится на независимых основаниях>12. Но обращаясь к этой теореме в дальнейшем, я буду апеллировать главным образом не к этим основаниям, а больше к тем, которые были изложены в этой главе (хотя конкретный способ, с помощью которого Р(h|e&k) повышается при P(h|k) и Р(e|h&k), но понижается при P(e|k), не зависит от чего-либо, о чем я говорил до сих пор, но должен зависеть от самого объекта).
P(h|k), предварительная вероятность, которой обладает h, в нормальном случае зависит, как мы уже поняли, как от внутренней простоты h (и ее ограниченного диапазона), так и от того, насколько хорошо h согласуется с нашим общим фоновым знанием о мире, которое содержится в k. Однако, как мы увидели в 1 главе, любое распределение данных между е и k будет совершенно произвольным.
Обычно удобнее всего рассматривать самую последнюю наблюдаемую часть данных е и остальное к, но иногда удобно допустить, что е – это все наблюдаемые данные, а к – просто «тавтологические данные». В последнем случае предварительная вероятность P(h|k) – это то, что я буду называть «внутренней (intrinsic) вероятностью» гипотезы Zz, она будет зависеть главным образом от простоты h (а также в меньшей степени – от узости диапазона). Но если к содержит логически вероятные данные об устройстве мира, то P(h\k) будет зависеть также от того, насколько хорошо h согласуется с этими данными. В том случае, если к – это просто «тавтологическая данность», Р(е\к) будет тем, что я назову в дальнейшем «внутренней вероятностью» е.
Я сказал о том, что теорема Байеса истинна, но мне следует пояснить, что я подразумеваю, говоря это. Я имею в виду, что в той мере, в которой различные е, h и к могут быть выражены численно, будет справедливо устанавливать численные отношения между ними. А в той мере, в которой они не могут быть точно выражены численно, мое заявление о том, что теорема Байеса истинна, будет просто заявлением, что все утверждения сравнительной вероятности, которые следуют из этой теоремы, истинны. Под утверждениями сравнительной вероятности я подразумеваю утверждения о том, что одна вероятность больше, такая же или меньше другой вероятности (иногда такие утверждения – это всё, что мы можем более или менее оправданно сказать о некоторых вероятностях: см. с. 42–43). Так, из теоремы Байеса следует, что если даны две гипотезы