Трудная проблема сознания - Васильев Вадим Валерьевич (книги онлайн без регистрации полностью txt) 📗
Аналогичную процедуру «обратной инженерии» можно провести и с другими модулями — отвечающими за эмоциональные реакции людей на родственников и друзей, за идентификацию вещей, за ориентацию в пространстве и многие другие вещи. Эволюционистские объяснения подчас имеют выход на практику: некоторые модули, возникшие в первобытной среде, могут давать сбои в условиях современной цивилизации, и понимание их изначальной функции вполне может указывать пути [23] смягчения возникающих коллизий.
Самым известным пропонентом эволюционистских объяснений модулей сознания является Линкер. Но этот подход нравится далеко не всем и, в частности, Хомский весьма скептичен относительно его преимуществ. Один из контрдоводов состоит в том, что из теории эволюции не вытекает, что все наследуемые изменения должны быть адаптивными [24]. Такие изменения, к примеру, могут лишь сопутствовать другим изменениям. И если это верно для модулей, то из существования некоего модуля нельзя заключать, что он приносил какую‑то выгоду нашим первобытным предкам. А это означает, что метод обратной инженерии сознания лишен эвристичности.
Этот аргумент может показаться сильным. В самом деле, допустим, что организм претерпевает мутацию, приводящую к появлению у него двух сопутствующих признаков А и В, причем А выгоден для организма, а В вреден. Выгода от А, однако, перевешивает вред от В, и эти признаки сохраняются в результате действия естественного отбора. В итоге получается, что «отбираться» могут даже вредоносные признаки. Максимум, о чем можно говорить в этой связи, так это о том, что некоторые признаки допускают адаптационное толкование. Тонкость, однако, в том, что модули, точнее те поведенческие эффекты, которые они порождают, по всей видимости, относятся к числу именно таких признаков. Ведь модули кажутся относительно независимыми друг от друга, а значит, маловероятно, что они детерминируются одними и теми же генами. Это, в свою очередь, делает маловероятными мутации, приводящие к одновременному появлению двух или большего количества модулей.
Оставим, однако, этот вопрос в стороне и поговорим о другом следствии модульной теории сознания, относительно полезности которого согласны почти все. Я имею в виду то обстоятельство, что эта теория прекрасно согласуется с основоположениями когнитивной науки. И теперь я должен сказать несколько слов об этих основоположениях. Предельно кратко их можно выразить следующим тезисом: человеческое сознание аналогично компьютерной программе, а мозг аналогичен самому компьютеру, т. е. его аппаратной части.
На первый взгляд эта мысль может показаться странной, но она прочно завладела умами наших современников. Так что стоит присмотреться к ее истокам. Первый современный компьютер — в теоретическом исполнении — был создан английским математиком Аланом Тьюрингом в 30–е годы XX века. Не вдаваясь в подробности, можно сказать, что он разработал модель механического устройства, способного выполнить любой алгоритм, т. е. ту или иную последовательность элементарных шагов, а в итоге решающего задачи, которые могли бы казаться специфичными только для человеческого интеллекта. Одним словом, Тьюринг показал, что самые примитивные машины могут «мыслить». Приведу пример такого мышления. Допустим, наша машина должна отследить определенную последовательность на ленте нулей и единиц, скажем такую, где 0 идет за 1. Эта задача совсем простая, но она соответствует тому, что понимается под мышлением, ведь мышление предполагает сопоставление и анализ данных. Так вот, машина может выполнить такую интеллектуальную задачу. Для этого достаточно расписать (а затем и механически реализовать, что совсем несложно) ее «внутренние состояния», которые будут определять ее действия. Первое из них устанавливает, что появление на ее считывающем устройстве 0 должно оставаться без последствий, тогда как появление 1 должно приводить к переходу ее во второе состояние, в котором появление 1 должно оставаться без последствий, но появление 0 должно останавливать машину и, к примеру, давать команду на печать сообщения «искомая последовательность найдена». Нетрудно заметить, что «внутренние состояния» есть связки импликаций типа: «если А то С», а «если В то D и E», где А, В, С, D и Е могут быть не только элементарными данными на входе и выходе, вроде 0 или 1, но также «действиями» или новыми «внутренними состояниями». Описания алгоритмов, выполненные в таком виде, можно назвать программами.
Но какое, можно спросить, отношение эта компьютерная схематика имеет к человеческому сознанию? Конечно, мы только что видели возможность проведения некой аналогии действия Машины Тьюринга с мышлением [25], но ее можно истолковать так, что это человеческое мышление может быть машинообразным, а не наоборот [26]. Однако дело вовсе не только в упомянутой аналогии. Еще в статье «Сознание и машины» [27] (1960 г.) знаменитый гарвардский Протей аналитической философии Хилари Патнэм показал, что между сознанием как совокупностью ментальных состояний и программами имеется гораздо более глубокое родство. Суть в том, что ментальные состояния, такие, как желания и убеждения, функционируют не разрозненно, а сплетены в некую сеть, напоминающую программные связки импликаций. К примеру, если я хочу выпить мохито, то появление передо мной бокала с этим коктейлем приведет к тому, что я возьму бокал и выпью мохито, но лишь если я убежден, что этот бокал не галлюцинация, что я имею право взять этот бокал, если я уверен, что там и впрямь находится мохито, и т. д. Иными словами, внутреннее состояние, при котором я протяну руку за бокалом с мохито, является следствием определенной совокупности предпосылок, так же как внутреннее состояние, при котором Машина Тьюринга совершает то или иное действие, определяется целым рядом условий. После того как я выпью мохито, я перейду в новое «внутреннее состояние», для которого будут характерны новые типы поведенческих реакций. Это и правда похоже на Машину Тьюринга.
Патнэм как раз и подчеркнул данное сходство. Он объявил мозг аналогом материальной составляющей Машины Тьюринга, а сознание — аналогом ее программы. И этот факт стал одной из отправных точек когнитивной науки. Пафос когнитивистов был связан с тем, что понимание сознания как программы позволяет абстрагироваться от аппаратной части, т. е. от мозга (ведь одна и та же программа может быть исполнена на разных hardware, причем детали архитектуры этой материальной основы несущественны), и научно исследовать виды ментальных состояний, которые в таком случае приравниваются к вычислительным состояниям Машины Тьюринга.
Со временем, впрочем, выяснилось, что уверенность некоторых когнитивистов в том, что они могут обойтись без нейро — науки, была не вполне обоснованной [28]. В конце концов, и рассуждения об одной и той же программе, исполняемой на разных компьютерах, это тоже идеализация. Программа, написанная для IBM PC, не пойдет на Мас. Детали архитектуры могут иметь критическое значение.
Обнаружилась и другая неприятная для когнитивизма вещь — абстрактность компьютерной метафоры. Резким критиком когнитивизма в этом направлении стал сам Патнэм, разочаровавшийся в собственных [29]идеях. Причем с годами эта критика становилась все острее. В поздних [30]статьях он уже прямо говорит о «химере» когнитивной науки. И в самом деле, хорошо рассуждать о том, что, скажем, желание сходить в Метрополитен — музей — это вычислительное состояние, но попробуйте привести пример реальной программы, вычисляющей место этого состояния в ряду других ментальных состояний! Никто и никогда еще не сделал этого, уверен Патнэм.