Сознающий ум. В поисках фундаментальной теории - Чалмерс Дэвид (читать хорошую книгу полностью txt) 📗
5. Как, находясь внутри этого каркаса, объяснить единство сознания? Иначе говоря, что делает мои зрительные переживания, слуховые переживания и т. д. переживаниями одного и того же субъекта? Подозреваю, что ответ указывал бы на способ обработки соответствующей информации, так что единство сознания соответствует факту доступности для определенной интеграции релевантной информации. Но детали этого неясны.
6. Каковы в точности критерии того, какая информация в мозге соответствует моим переживаниям? Существен ли для этого какой-то особый каузальный путь или тип каузального потока? Ключевую роль здесь, в индивидуализации информации и соответствующих путей, предположительно играет что-то вроде прямой доступности для глобального контроля.
Наличие всех этих вопросов как раз и показывает, как далеки эти схематичные идеи от подлинной теории. В этом можно убедиться, заметив также, как далеки эти идеи от того, чтобы давать нам возможность предсказывать, какие именно феноменальные свойства, связанные с физической системой, возникнут из физических свойств этой системы. В ее нынешнем виде данная идея лишена большой объяснительной и предсказательной силы, ее надо хорошо прокачать, чтобы сделать реально полезной.
Для превращения этой идеи в удовлетворительную теорию понадобится немало новых прозрений. Не исключено, что к прорыву могло бы привести рассмотрение проблемы, о которой шла речь в предыдущем параграфе: как совместить феноменальную информацию на макроскопическом уровне со взглядом на информацию как на «внутреннее свойство» на микроскопическом уровне. Другой прорыв мог бы произойти при попытке найти ограничение, выделяющее класс физически реализованных информационных пространств, реализованных и в опыте. К прорывам могли бы привести и соображения, связанные с вещами, которых я вообще не касался.
Данная идея может и вообще оказаться совершенно неверной. Это не удивило бы меня; на самом деле я считаю более вероятным, что ключ к фундаментальной теории лежит где-то в другом месте. Но я выдвинул эти идеи потому, что нам надо начинать размышлять об этих вещах, и потому, что даже неудачный образец таких размышлений может быть поучительным. Я также надеюсь, что некоторые из попутно рассмотренных идей — о том, как объяснять феноменальные суждения, о повсеместности опыта, а также о связи опыта, информации и внутренних свойств физического — могут оказаться полезными даже при переносе их в другой каркас. Не исключено, что более адекватная теория сознания может сохранить какой-то аромат выдвинутых здесь идей, даже если ее детали будут совсем другими.
Нередко можно услышать, что проблема теорий сознания вроде той, что была здесь рассмотрена, состоит в том, что они излишне спекулятивны и не могут быть проверены. Я, однако, считаю, что настоящая проблема выдвинутой мной «теории» в другом: она слишком неспецифична в своих предсказаниях. Если бы у нас была примерно такая же в плане своей простоты теория, которая могла бы предсказывать все специфические факты о наших опытных переживаниях, — пусть даже и лишь те факты, которые известны нам с позиции первого лица, — при наличии физических фактов о нашей системе обработки информации, это было бы замечательным достижением и дало бы нам самое серьезное основание считать эту теорию истинной. В настоящий момент у нас нет такой теории, но нет резона полагать, что подобная теория вообще является невозможной.
Часть IV
Прикладные Аспекты
Глава 9
Сильный искусственный интеллект
1. Машинное сознание
Может ли машина быть сознательной? Может ли надлежащим образом запрограммированный компьютер действительно иметь ум? Эти вопросы были предметом громадного множества дискуссий в последние десятилетия. Исследования в области искусственного интеллекта (или ИИ) в значительной своей части были нацелены на воспроизведение ментального в вычислительных машинах. О серьезном прогрессе говорить пока не приходится, но сторонники этого подхода доказывают, что у нас есть все основания считать, что в итоге компьютеры действительно обретут ум. В то же время, оппоненты доказывают, что у компьютеров есть некие ограничения, которых лишены люди, так что не стоит и вопроса о том, чтобы сознающий ум возникал в силу одних лишь вычислительных процессов.
Есть два вида типичных возражений против искусственного интеллекта. Это могут быть внешние возражения, когда пытаются показать, что вычислительные системы никогда не смогли бы даже вести себя подобно когнитивным системам. Согласно этим возражениям, люди обладают определенными функциональными способностями, которые никогда не могли бы быть у компьютеров. Так, иногда утверждается, что, поскольку эти системы следуют правилам, они никогда не смогут демонстрировать творческое или гибкое поведение, свойственное людям (напр., Dreyfus 1972). Другие доказывали, что компьютеры никогда не смогут воспроизвести математические интуиции человека, так как вычислительные системы, в отличие от людей, ограничены теоремой Геделя (Lucas 1961; Penrose 1989).
Внешние возражения наталкивались на трудности, связанные с успехами вычислительных симуляций физических процессов в целом. Кажется, в частности, что у нас есть серьезное основание верить в вычислимость законов физики, так что мы по крайней мере должны быть способны осуществить вычислительную симуляцию человеческого поведения. Иногда это оспаривается доводами о невычислимом компоненте физических законов (так поступает Пенроуз) или о нефизической причинности (как это делает Лукас), но очевидно, что сторонники подобных доводов ведут неравный бой.
Большее распространение получили возражения, называемые мной внутренними. Те, кто высказывает их, хотя бы в целях своей аргументации признают, что компьютеры могли бы симулировать человеческое поведение, но доказывают, что они все равно были бы лишены ментального. В частности, предполагается, что у них не было бы внутренней жизни: ни сознательного опыта, ни подлинного понимания. В лучшем случае компьютер мог бы симулировать, но не воспроизводить ментальность. Наиболее известным возражением этого типа является аргумент «Китайской комнаты» Джона Серла (Searle 1980). Согласно этим возражениям, вычислительные системы в лучшем случае были бы наделены пустыми оболочками ментального: они были бы кремниевыми разновидностями зомби.
Сторонники нередуктивного взгляда на сознательный опыт нередко симпатизировали внутренним возражениям против искусственного интеллекта, и многие доказывали, что простой компьютер не может обладать сознанием. Более того, те, на кого произвела впечатление проблема сознания, подчас характеризовали эту проблему, указывая на сознание как на такую черту, которая есть у нас, но отсутствовала бы у любого компьютера! Многим оказалось трудно поверить, что искусственная, небиологическая система могла бы быть тем, что могло бы порождать сознательный опыт.
Однако нередуктивный взгляд на сознание вовсе не автоматически приводит к пессимистическим воззрениям на ИИ. Это совершенно разные вопросы. Первый имеет отношение к прочности сопряжения физических систем и сознания: конституируется ли сознание физическими процессами, или же оно всего лишь возникает из этих процессов? Второй вопрос касается формы этого сопряжения: какие именно физические системы порождают сознание? Разумеется, не очевидно, что выполнение надлежащего вычисления должно порождать сознание; но не очевидно и то, что нейронные процессы в мозге должны порождать его. И, на первый взгляд, не ясно, почему компьютеры должны уступать мозгу в этом отношении. Признав удивительный факт порождения мозгом сознания, мы не испытаем нового удивления, обнаружив, что вычисление могло бы порождать сознание. Так что само по себе принятие нередуктивного взгляда на сознание должно было бы оставлять рассматриваемый нами вопрос открытым.