Человеческое познание его сферы и границы - Рассел Бертран Артур Уильям (читать книги онлайн без регистрации .txt) 📗
6. Этот пункт ясен. Если вселенная конечна, то полное перечисление теоретически возможно, а до тех пор, пока оно не сделано, обыкновенное исчисление вероятности показывает, что индукция, вероятно, действенна. Но на практике это соображение не имеет значения из-за диспропорции между числом вещей, которые мы можем наблюдать, и числом вещей во вселенной.
Теперь обратимся в общему принципу, помня, что мы должны поискать какое-либо ограничение, которое сделает его возможно действенным. Возьмем сначала частную индукцию. Эта индукция говорит, что если сделанный наудачу набор n членов класса альфа состоит полностью из членов класса p, то вероятно, что следующий член класса а будет p, то есть что большинство оставшихся альфа будет бета. Нужно, чтобы само это положение было только вероятным. Мы можем предположить, что а есть конечный класс, содержащий, скажем, N членов. Мы знаем, что из них по крайней мере n суть члены класса p. Если все число членов а, являющихся членами p, есть m, то все число способов получения n членов есть N! /(n! (N — n)!), а все число способов получения n членов, которые суть альфа, есть m!/(n! (m — n)!), «м обозначает произведение всех целых чисел от 1 до N. Следовательно, шанс набора, состоящего целиком из а, есть
Если Pm есть априорная вероятность того, что m есть число членов, общих для а и p, тогда вероятность после того, как произведен опыт, есть
Назовем ее qm. Если число членов, общих для а и р, есть m, тогда после изъятия n членов а, которые суть р, остается m- n членов бета и N-п членов не-бета. Следовательно, из предположения, что а и р имеют m общих членов, мы получаем вероятность qm (m — n)/(N-n) других бета. Следовательно, общая вероятность есть
Значение этого полностью зависит от Pm, для оценки которых нет действенного способа. Если мы вместе с Лапласом допустим, что каждое значение m равно вероятно, то мы получим результат Лапласа, что шанс, что следующее а будет р, есть (n +1)/(n +2). Если мы допустим, что априори каждое а одинаково вероятно будет р и не будет р, то мы получим значение 1/2. Даже при предположении Лапласа общая индукция имеет вероятность только (n +1)/(/V+1), которая бывает обычно небольшим.
Нам нужно, следовательно, какое-либо предположение, которое делает pm, большим, когда m почти равно N. А всякий шанс этого предположения на то, чтобы быть действенным, должен зависеть от природы классов а и (3.
Со времени Лапласа делались различные попытки показать, что вероятная истинность индуктивного вывода вытекает из математической теории вероятности. Теперь всеми признается, что все эти попытки были безуспешными и что если индуктивные доказательства должны быть действенными, то это должно быть в силу какой-либо внелогической характеристики действительного мира в его противоположности различным логически возможным мирам, какие только могут представляться умственному взору логика.
Первое из таких доказательств принадлежит Лапласу. В своей истинной, чисто математической форме оно имеет следующий вид:
Имеется n+1 сумок, сходных друг с другом по внешнему виду, каждая из которых содержит n шаров. В первой — все шары черные; во второй — один белый и все остальные черные; r +1-й сумке r шаров белые и остальные черные. Из этих сумок выбирается одна, состав которой неизвестен, и из нее вынимается m шаров. Все они оказываются белыми. Какова вероятность, (а) что следующий вынутый шар будет белым, (б) что мы выбрали сумку, состоящую из одних белых шаров?
Ответ таков: (а) шанс, что следующий шар будет белым, равен (n +1)/(m +2), (б) шанс, что мы выбрали сумку, в которой все шары белые, равен (m +1)/(n +1). Этот правильный результат имеет непосредственную интерпретацию на основе конечно-частотной теории. Но Лаплас делает вывод, что если m членов А оказались членами В, то шанс, что следующий А будет равен В, равен (m+1)/(m +2), и что шанс, что все А суть В, равен (m +1)/(n +1). Он получает этот результат с помощью допущения, что при данном числе n объектов, о которых мы не знаем ничего, вероятности, что 0, 1, 2, …, n из этих объектов суть B, все равны. Это, конечно, является абсурдным допущением. Если мы заменим его несколько менее абсурдным допущением, что каждый из этих объектов имеет равный шанс быть или не быть В, то шанс, что следующий А будет В, остается равным 1/2, как бы много А ни оказались B.
Даже если бы его доказательство было принято, общая индукция остается невероятной, если n гораздо больше, чем m, хотя частная индукция может быть в высокой степени вероятной. В действительности же, однако, его доказательство является только историческим раритетом.
Кейнс в своей книге «Трактат о вероятности» сделал наилучшее, что только может быть сделано для индукции на чисто математической основе, и решил, что она неадекватна. Его результат следующий.
Пусть g будет обобщение, х1, x2; … — наблюденные случаи, благоприятные для обобщения, и h — общие обстоятельства, поскольку они относятся к делу.
Допустим
и так далее
Пусть
Таким образом, Pn есть вероятность общей индукции после n благоприятных случаев. Напишем д вместо отрицания д и P0 вместо g/h, то есть априорной вероятности обобщения. Тогда
По мере того как n увеличивается, эта дробь стремится к 1 как пределу, если
стремится к нулю как пределу; а это случится, если имеются конечные количества e и j такие, что для всех достаточно больших r
Рассмотрим эти два условия. Первое говорит, что имеется количество 1 е, меньшее, чем 1, такое, что если обобщение ложно, то вероятность того, что следующий случай будет благоприятным, после определенного числа благоприятных случаев будет всегда меньше, чем это количество. Рассмотрим в качестве примера его ошибочности обобщение «все числа суть непростые». По мере того как мы движемся по ряду чисел, простые числа становятся более редкими, и шанс, что следующее число после г непростых будет само непростое, возрастает и стремится к достоверности как пределу, если г удерживается постоянным. Это условие, следовательно, может оказаться недостаточным.
Но второе условие, что д должно еще до начала индукции иметь вероятность, большую, чем какая-либо конечная вероятность, гораздо труднее. В общем трудно найти какой-либо способ оценки этой вероятности. Какова была бы вероятность предложения «Все лебеди белые» для человека, который никогда не видел лебедя или ничего не слышал о цвете лебедей? Такие вопросы и темны и неопределенны, и Кейнс признает, что они делают его результат неудовлетворительным. Я вернусь к этому вопросу в главе II части шестой. Имеется одно простое предположение, которое способно дать ту конечную вероятность, которой хочет Кейнс. Предположим, что число вещей во вселенной конечно, скажем N. Пусть бета будет классом, состоящим из n вещей, и пусть а будет произвольным набором m вещей. Тогда число возможных альфа будет
а число тех, которые содержатся в, бета, будет
Следовательно, шанс, что все а суть р, равен
что является конечным. Это значит, что каждое обобщение, в отношении которого мы не имеем свидетельства, имеет конечный шанс быть истинным.
Я боюсь, однако, что если N такое большое, как полагал Эддингтон, то число благоприятных случаев, необходимых для того, чтобы сделать индуктивное обобщение вероятным в любой высокой степени, намного превосходило бы то, которое является практически достижимым. Следовательно, этот способ избежания трудностей, будучи блестящим в теории, не может служить для оправдания научной практики.
Индукция в развитых науках действует по системе, несколько отличающейся от простого перечисления. Прежде всего в науках имеется совокупность наблюденных фактов, затем совместимая со всеми фактами общая теория и затем выводы из теории, которые последующее наблюдение или подтверждает, или отвергает. Доказательство здесь зависит от принципа обратной вероятности. Пусть p будет общей теорией, h — ранее известным данным и q — новым экспериментальным данным, относящимся к р. Тогда