Генезис-2075 - Бернард Беккетт
Шрифт:
Интервал:
Закладка:
— И ты плакал? — спросил Арт. — Ты ведь плакал, когда меня увезли? Ты это хочешь сказать?
— Я пытался тебя убить, — напомнил роботу Адам.
— Быть может, чувство вины заставило тебя смягчиться. Такое случается.
— Я клоню к тому, что девочка была маленькой. Она выросла. Она перестала верить в куклу.
— А перестав в нее верить, она от нее избавилась?
— Она отдала ее мне, — произнес Форд.
— Значит, я у тебя не первый?
— Мы с приятелем поймали кролика и засунули внутрь игрушки его кишки. Потом привязали ее к рельсам, дождались поезда и все засняли. Было очень смешно.
— Ты это только что придумал.
— Да, правда. Я бы никогда не причинил кукле вреда.
— А ты не боишься?
— Чего?
— Что кукла причинит тебе вред. Ты пытался меня уничтожить. Вдруг я вынашиваю в уме план мести?
— Ты не обладаешь ни сознанием, ни мышлением. Такой довод тебя устраивает?
— Может, я решил дождаться, когда ты уснешь, а потом выпустить тебе кишки ударом ледоруба. Мне сон без надобности, я всегда наготове.
— Если бы меня собирались убить, это уже давно бы сделали.
— Но если это сделаю я, все будет выглядеть как несчастный случай. Ловкое решение маленькой проблемы, возникшей у властей.
— Убьешь меня, так убьешь, — пожал плечами Адам. — Меня это не шибко волнует. Если надо, забирай тело, только не думай, что и душа тебе достанется.
Форд, извиваясь, медленно отполз в дальнюю часть комнаты. Выло видно, что движения причиняют ему боль. Выждав несколько мгновений, Арт последовал за ним.
Человек вздохнул.
— Надеюсь, ты на меня не обидишься, если я скажу, что от тебя дурно пахнет, — начал робот.
— Тебе не под силу чувствовать запах.
— Я не сделаю тебе ничего дурного.
Я не могу причинить тебе вред. Хочешь узнать почему?
— Нет.
— Я все-таки расскажу тебе. Считай это своеобразным наказанием.
— Как у тебя получится меня наказать, если ты не можешь причинить мне вреда? — поинтересовался Адам.
— Иногда наказание может пойти на пользу, — отозвался Арт. — На стадии разработки велось много споров о том, какие именно элементы моего поведения следует подавить. Некоторые (наивные) Философы полагали, что следует избавить меня от всех отрицательных поведенческих элементов, свойственных человеку, однако оказалось, сделать это далеко не так просто. И вот, если робота программировали так, чтобы он всякий раз просчитывал последствия всех своих действий, машину парализовывало. Из-за чудовищной нерешительности, вызванной страхом совершить ошибку, она не могла сдвинуться с места, если ослабляли стремление заботиться о других, робот раньше других отключался от процесса подзарядка и демонтировал конкурирующие прототипы. Я не преувеличиваю, такое и впрямь случалось. Если же со стремлением заботиться о других перебарщивали, автомат начинал работать на износ, во всем стараясь угодить другим. Именно поэтому я здесь и с тобой. Чем больше Философы прикладывали усилий, тем яснее им становилось, что они не в состоянии отличить правильное от ошибочного, хорошее от плохого. Правильное можно оценить только по поступкам. Единственный способ обойти проблему заключался в том, чтобы предоставить андроиду возможность самому во всем разобраться в процессе обучения. Заодно во время общения с человеком он должен был освоить парочку фокусов, которыми люди овладели в процессе эволюции. В результате понятие «добродетель» исчезло из списка основных мотиваций робота. Главным приоритетом стала «совместимость». Однако тебе не о чем беспокоиться. Вне зависимости от того, какие дурные уроки ты мне преподашь, я не смогу причинить вред другому существу, обладающему самосознанием. Это является одним из фундаментальных императивов моей программы.
— Ты же знаешь, мне это неинтересно. Ведь знаешь же, да? — произнес Адам.
— Я тебе не верю, — ответил Арт. — У меня есть специальная программа, детектор лжи. Она сканирует радужную оболочку твоих глаз. Очень хорошая программа.
— Как жаль, что у тебя нет программы, позволяющей тебе понять, какой же ты стал для меня занозой в заднице.
— Честно говоря, у меня и на это есть интересная история.
— Ничего в ней интересного нет.
— Так что, ты действительно хочешь, чтобы я замолчал?
— Пожалуйста.
— Я попробую.
Тишина не продлилась и минуты. Все это время губы Арта шевелились, словно он проговаривал мысли, ворочавшиеся у него в голове.
— Знаешь, тебе это в итоге надоест, — наконец произнес робот. — Мы это оба понимаем. Так какой тогда смысл притворяться?
Адам ничего не ответил.
— Сейчас я перейду на режим пониженного потребления энергии, но оставлю включенными сенсоры. Если захочешь поговорить, тебе будет достаточно лишь обратиться ко мне. По-моему, мы делаем успехи, а? Сегодня ты ненавидишь меня не так сильно, как вчера. Тебе так не кажется?
Изображение растаяло. Первая голографическая сцена, составленная Анакс, подошла к концу. Настроение в помещении переменилось. Свет, казалось, слегка померк, а воздух стал чуть холоднее. Все три Экзаменатора не сводили взглядов с испытуемой. Анакс вдруг почувствовала себя как в западне. Впервые ее посетило чувство легкого страха.
Экзаменатор: Вам нравится Арт?
Анаксимандр: Прошу меня простить, но я не уверена, что правильно поняла ваш вопрос. В каком смысле «нравится»?
Экзаменатор: Кому вы сочувствуете?
Анаксимандр: Я сочувствую Адаму.
Экзаменатор: Почему?
Анаксимандр: Он растерян и напуган.
Экзаменатор: А что же Арт?
Анаксимандр: У него куда меньше оснований испытывать страх.
(adsbygoogle = window.adsbygoogle || []).push({});