Журнал «Если», 1993 № 11-12 - Кульберг Александр (читать хорошую книгу полностью .TXT) 📗
Но то, что хорошо в поэзии, часто мешает в споре. Поэтому давайте вначале уточним, что мы понимаем под словом «мыслить». Попробуем перечислить, что в человеке нам кажется наиболее «человечным» и отличающим его от машины.
Прежде всего, это, пожалуй, самосознание. Затем — интуиция и здравый смысл. Естественно, эмоции, и среди них одна из самых человечных — чувство юмора. И наконец, свобода воли и непредсказуемость.
Давайте попробуем разобраться, может ли всем этим обладать машина? А для этого выдвинем все возражения, которые сможем придумать (а точнее, которые выдвинул один из самых видных противников идеи искусственного интеллекта профессор философии университета в Беркли Хьюберт Дрейфус).
САМОСОЗНАНИЕ И СТИМУЛЫ
Машина делает только то, чего хочет ее создатель. У нее нет собственных желаний, поэтому она не может считаться самостоятельно мыслящим существом.
А насколько свободен в своем поведении человек, есть ли самостоятельные стимулы у нас? На первый взгляд такой вопрос кажется кощунственным. Но в основе учения Зигмунда Фрейда, например, лежит тезис о том, что поведение человека определяется в основном немногочисленными инстинктами. Основные среди них — инстинкт самосохранения и сексуальное чувство. Из их сочетания легко вывести и стремление к превосходству, и к самосовершенствованию, и смелость, и чувство долга, и многое, многое другое. Конкретные способы удовлетворения инстинктов определяются воспитанием и — отчасти — генетическими особенностями. То есть сочетанием программного и аппаратного обеспечения. Признать, что ты не настолько свободен, как тебе казалось, и основную роль в твоем поведении играет подсознание, обидно. Именно поэтому теория Фрейда подвергалась серьезным нападкам. Но сейчас ее по крайней мере учитывают в своей практике почти все серьезные психологи и психиатры.
Итак, основные стимулы и в человека, и в компьютер заложены изначально. Богатство же способов их осуществления зависит от сложности системы — обработчика информации. Пятнадцать миллиардов нейронов человека приводят к тому, что склонность к самоутверждению может сделать его художником, диктатором, убийцей или алкоголиком. Но и у машины реакции могут быть весьма неожиданными. Вспомните робота Эрби из рассказа А. Азимова «Лжец» или «страж-птицу» Роберта Шекли. В первом случае робот, подчиняясь Первому закону роботехники, нанес серьезные моральные травмы своим создателям. Во втором — страж-птицы, призванные бороться с преступностью, не давали хирургам оперировать больных, а шоферам выключать (убивать) автомашины. Способность к обучению вдобавок к заложенным стимулам сделает сложные машины такими же непредсказуемыми (а может быть, и опасными в общении), как и людей.
Позволим себе еще один пассаж на ту же тему. Психиатры часто имеют дело с расщеплением личности. Вместе с тем, по мнению многих психологов, например Эрика Берна, феномен самосознания неразрывно связан именно с тем, что в человеке «уживаются» несколько сущностей. Берн обозначает их как «ребенка», «взрослого» и «родителя». Зигмунд Фрейд выделяет «Оно», «Я» и «сверх-Я». Конфликты начинаются, если две сущности одновременно пытаются захватить управление.
Но нечто подобное происходит и в компьютерах. Каждая выполняемая на компьютере программа придает ему черты определенной личности. Обычно программы мирно делят ресурсы компьютера, и в каждый данный момент только одна из них занимает устройства ввода- вывода (контролирует поведение и связи с внешним миром). Но иногда случаются конфликты. Программистам хорошо знакомы пугающие сообщения, типа «Нарушено распределение памяти. Система остановлена». Итак, машины постепенно получают не только самосознание, но и связанные с ним психические недуги.
ИНТУИЦИЯ И ЗДРАВЫЙ
СМЫСЛ
Машина использует только логические методы, а жизненные проблемы так не решить.
В двадцатые годы немецкий математик и философ Гедель доказал теорему, оказавшую огромное влияние на менталитет ученых. Оказывается, в теории чисел — самой точной из наук — всегда можно придумать высказывание, которое нельзя ни опровергнуть, ни доказать. Если же принять его за аксиому, то снова можно будет задать вопрос, на который не удастся дать ответ. «Любая конечная система аксиом неполна», — заявил Гедель. И это в самой точной из наук — теории чисел! Что же говорить о жизни, где подавляющее большинство проблем невозможно решить простым перебором вариантов или логическими рассуждениями!
Но оказывается, что представление о компьютерах как о холодных логиках неверно. Уже более тридцати лет существуют машины, которые используют интуитивный подход. Начало им положила программа «Логик-Теоретик» Г. Саймона и Д. Пойа. Идею проекта Саймон выразил так: «Нас не интересовали методы, гарантировавшие получение решения за счет гигантских вычислений. Мы хотели понять, как, например, математик может доказывать теорему, не зная заранее, как он это сделает и сделает ли вообще».
Саймон предложил научить машину вырабатывать эмпирические правила, сужающие круг поиска, — так называемые эвристики. В 60-е и 70-е годы на основе этого подхода был создан ряд систем самого различного назначения — от игроков в шахматы до анализаторов хроматографических спектров. В процессе работы эти системы создают все новые эвристики, и через некоторое время даже их создателям сложно понять, как же они работают. По крайней мере, «вытащить» правила поведения из такой машины не проще, чем заставить опытного шофера объяснить словами, как он определяет, когда надо нажимать на тормоз при подъезде к перекрестку.
Машины, пользующиеся эвристиками, обладают еще одним человеческим качеством — они могут ошибаться. Действительно, если не перепробовать все варианты, то можно пропустить неожиданное решение или не заметить опасности. Например, американцы начали применять экспертные системы для обнаружения взрывчатки в багаже авиапассажиров. Датчики этих систем реагируют на малейшую концентрацию азотистых соединений — составную часть любой взрывчатки. Однако случаются и ложные срабатывания. Больше всего машина «не любит» консервированные немецкие сосиски. Оказалось, что в них очень много нитратов.
Но кто не рискует — тот не выигрывает, то есть не может решить реальную задачу за разумное время.
Кроме того, «здравый смысл», внедряемый в коммерческие системы, сделает невозможным некоторые вызывающие раздражение действия компьютера. Можно надеяться, что «здравомыслящие» машины не будут больше требовать у клиентов заплатить по счету 0 долларов 00 центов и отключать у них телефон, пока те не отправят платежку на указанную сумму. Именно так вела себя центральная вычислительная машина американской телефонной компании
AT&T
в 1975 году…
ЭМОЦИИ
Машина бесчувственна, неэмоциональна, она никогда не будет испытывать истинного наслаждения или страдания.
«Скажу лишь только, что при виде Вас мои мысли как бы легче текут. Пожалуй, это грубо соответствует тому, что Вы чувствуете, когда радуетесь». Это говорит робот Даниел Оливо из романа «Роботы утренней зари» Азимова. Что это, если не наслаждение? Чем сложнее система, тем сложнее ее реакция на внешние раздражители. Даже мой настольный компьютер по-разному реагирует на программы. Например, он очень не любит переключаться на видеоигры после работы с базой данных или электронной таблицей. Конечно, все это можно объяснить расположением проводов на плате и особенностями набора микросхем. Но человек в этом случае просто сказал бы, что ему хочется еще поработать и он считает, что время отдыха пока не пришло.
Удовольствие и неудовольствие, если понимать его как нечто, к чему стремятся или чего избегают, доступны даже инфузориям. Как обстоят дела с более сложными эмоциями, например смехом?