Фантастика и футурология. Книга 1 - Лем Станислав (читаем книги бесплатно .TXT) 📗
ч) роботы, специально изготовленные для определенного задания (в новелле «Закрывающий», например, уже упоминавшейся), выполнив его, они должны отправляться на слом, но – понятное дело – им этого не хочется;
ш) роботы, объявляющие забастовку (мне такие истории неизвестны, а странно – должны быть!);
щ) роботы, появление которых становится панацеей от всех общественных бед (например, у Дж. Уильямсона, а также у К. Саймака).
Исчерпав таким образом практически весь алфавит, мы остановимся на берегу океана незатронутых вариантов. На основании вышеприведенной выборки читатель поймет, почему я не берусь за классификационную систематику: это было бы слишком утомительно.
Исходя из сегодняшних знаний, интеллектронный универсум можно бы поделить на часть фиктивную и часть, заполненную возможностями будущей реализации. Хотя наверняка не будет роботов ни с человеческим «Id», ни телепатических, зато в принципе цифровая машина могла бы управлять, а испорченный домашний робот наделать бед.
Генеральная тенденция такова: авторы ищут не столько правдоподобных эмпирически событий, сколько скорее блистающих драматургическими качествами, то есть ситуаций странных, шокирующих, парадоксально ставящих с ног на голову традиционные иерархии ценностей и т.п. Порой результаты таких беллетристически мотивированных поисков сходятся с эмпирически вероятными, порой их направления расходятся.
Техническим обоснованиям «роботехники» посвящено немало страниц; анализ же общественных изменений, вызванных проникновением интеллектроники в ее трех возможных аспектах (компьютеры, роботы, «бионические андроиды»), как правило, подвергаются значительному упрощению. Разумеется, одно дело – локализация человекоподобного «железного ангела» в структуре человечества, и совсем другое – трансформируемость ее целостной структуры в результате вторжения интеллектроники в многочисленные области управления (компьютеризация и автоматизация административных, контрольных, юридических, экономико-хозяйственных, стратегическо-политических и иных функций государства).
Имманентно «персоналистичные» проблемы, то есть как бы «метафизика роботов», или: следует ли рассматривать роботов как мертвые машины, как и какие предоставлять им права (вплоть до равноуправления с человеком), может ли робот быть «интеллектуально и морально» совершеннее человека, что из этого последует, если это так, etc. – такие проблемы либо трактуются в произведениях маргинально, либо вообще не привлекают авторского внимания.
Конечно, так определенная «метафизика» существенно скоррелирована в своем виртуальном возникновении с «техническими параметрами» роботов. Если они не обладают «персонифицированными» характеристиками, то нет оснований ставить вопросы в порядке антропологически ориентированной аксиологии.
Достаточно своеобразна и верховная тема «ультимативного робота», уподобляющегося Господу Богу. О том, как я подхожу к этому в «Дневнике», я уже упоминал. А вот как ее трактует «отец трех законов роботехники» Айзек Азимов (это авторское, а не мое изложение новеллы «Последний вопрос») в семи коротеньких сценках. Все начинается в 2061 году, когда с помощью Мультивака земная энергетика подключается к Солнцу. Два техника Мультивака, упившись, вопрошают машину, можно ли будет еще что-нибудь сделать, когда энергия Солнца исчерпается. Ответ таков: «Данных для ответа недостаточно». Через много веков межпланетные полеты становятся реальностью, а растущая популяция Земли расползается по планетам. У каждой планеты есть свой электронный мозг, а у каждого корабля – свой Микровак, более совершенный, нежели Мультивак 2061 года. С течением времени вопрос, заданный некогда подвыпившими техниками, возникает вновь и вновь. Ответ остается прежним.
Спустя миллионы лет человечество распространяется по Галактике, люди – бессмертны и намереваются колонизировать другие звездные системы. Существует галактический АК [22], обслуживающий все человечество: любой человек может контактировать с ним благодаря своему контактному АК. Тем временем главный Мозг уже освободился от контроля людей; очередные поколения компьютеров «в поте лица своего» проектируют и создают новые поколения. Но и галактический АК не может объяснить, удастся ли когда-либо и как предотвратить неумолимое возрастание энтропии. Спустя сотни миллионов лет человечество добралось до удаленнейших туманностей. У людей уже нет физических тел. Они построены из лучевой энергии, составляющей их идентичность и личность. АК Всего Универсума – шар двухфутового диаметра, «почти невидимый», поскольку расположен он в «многомерном гиперпространстве». Но даже космический АК не знает ответа на исходный вопрос. Проплывают биллионы лет, человечество утратило индивидуальность, теперь оно – единая личность, состоящая из триллионов и триллионов существ, заполняющая Вселенную от края и до края, однако по-прежнему зависящая от постепенно угасающей энергии звезд. Человек снова вопрошает, возможно ли уменьшить энтропию, и снова не получает ответа.
Спустя триллионы лет угасают последние звезды и тепловая смерть охватывает Космос. Люди понемногу сплавились в единое целое с гипервселенским компьютером; он всеприсутствует, как и само гиперпространство, вечен, но не всеведущ; когда последний, сплавливающийся в единое целое с машиной, вопрошает ее все о том же, ответа он не получает.
«Потом материя и энергия кончились, а с ними – пространство и время. Космический („Вселенский“) АК существовал еще только ради того вопроса, на который не мог дать ответа в течение десятков триллионов лет после того, как полупьяный техник задал ему свой вопрос. Все собранные данные наконец сошлись в одной точке, и уже нечего было больше узнавать. Оставалось только упорядочивать. И стало так, что АК понял, как можно обращать исчезновение энтропии. Но уже не было человека, которому он мог бы передать это знание. В течение долгого безвременья АК раздумывал, что же делать. Его сознание охватывало все то, что прежде было Космосом, а теперь стало Хаосом. И сказал АК: „ДА БУДЕТ СВЕТ!“
И стал свет».
Мне кажется забавным, что концепция «компьютеризации» Универсума, явно висящая в воздухе, была очень похоже реализована мною в рассказе «Друг» (в котором угрюмый компьютер, строя козни человечеству, нападает на мысль, что он мог бы поочередно превращать планеты и солнца в собственное вещество, то есть «компьютеризовать Космос», и наконец приходит к мысли: «а может, это уже когда-то было», может, другой компьютер биллионы лет назад именно так и поступил, после чего «ему в голову ударило та-а-акое», что вызвало взрыв Мозга-Вселенной, то есть привело к разбеганию галактик, продолжающемуся и по сей день).
Тот же Азимов, как было сказано, изобрел «Три Закона Роботехники», звучащие так:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Законам» [23].
Как можно судить по статье Азимова в английском журнале «Сайнс» (декабрьский номер за 1968 г.), он к своим законам относился серьезнее, чем следовало бы. Разыскивая аналогию, на которой, как на модели, можно было бы показать опасности, возникающие в реляциях «человек-компьютер», Норберт Винер не случайно обратился к истории «Обезьянья лапа», а не к какому-либо одному из многотысячных рассказов научной фантастики.
Утопично предположение, будто Три Закона Роботехники Азимова можно было бы заложить в фундамент интеллектронного программирования. Этой проблемой я занимался в «Summa Technologiae», рассматривая возможную эволюцию отношений между цифровыми машинами и людьми, поэтому не хотелось бы повторять сказанное. Но и робота, снабженного каким-то эрзацем личности, невозможно сделать совершенно безопасным для окружения, учитывая такую рефлексию, которая, правда, не может считаться доказательством, но на след его наводит. Примем оптимистическое (недоказуемое строго) предположение, будто технически осуществимо построение системы, являющейся одновременно самопрограммирующимся роботом, в то же время не могущим предумышленно причинить зло человеку. Моделью такого робота будет ребенок из новеллы Я.Ю. Щепаньского «Бабочка», который, желая помочь бабочке, неумышленно ее убивает. В принципе же моральную оценку такого поступка можно дать лишь постольку, поскольку удается проследить уходящие максимально далеко причинные цепочки, запущенные данным действием. Тот, кто смотрит дальше и замечает такие возможные последствия своих действий, которых кто-либо другой на его месте не в состоянии предвидеть, порой действует не так, как этот другой. Но чем дальше в будущее уходит предвидение последствий действия, тем значительнее в предикции будет участие вероятностных факторов. Добро и зло скорее в виде исключения образуют полярную дихотомию: включение в оценку пробабилистического элемента делает принятие решения все более трудным. Поэтому гипотетический робот, имеющий аксиологически очень сильную защиту, в ходе реальных событий, презентующих присущую им степень сложности, чаще всего бы замирал, не зная, как поступить, тем самым уподобляясь тем восточным мудрецам, которые бездействие чтили превыше действия, кое в запутанных ситуациях просто не может быть этически не рискованным. Но робот, охваченный параличом в ситуациях, требующих активности, не был бы наиболее совершенным из всех технических устройств, и поэтому в конце концов сам конструктор вынужден был бы оставить некоторый люфт его экологическим предохранителям.