Оазис - Александр Ефимович Власов
Шрифт:
Интервал:
Закладка:
– Спорно, Мираж. Когда ты пытался убить меня, Дениса и остальных, ты тоже руководствовался логикой. – Остановил Миража Майкл. – Но что-то в твоих словах есть. Ты должен доказать нам свои намерения, прежде чем мы хоть что-либо для тебя сделаем.
– Я думаю, что твой андроид, Денис, сможет определить, лгу я или нет. Мы с ней, как вы говорите, из одного теста сделаны.
– Я подумаю, – ответил я Миражу. – Майкл, – обратился я к другу, – отключи его, пожалуйста, нам пора.
В этот раз Мираж не стал просить даже одной минуты.
– Что думаешь, Ден?
Мы сидели в знакомом нам кафе, там же, на глубине. Майкл заказал себе что-то алкогольное, а я разглядывал свой запотевший бокал лимонада. Было душно, несмотря на то что кондиционеры работали исправно. Нервное, наверное.
– Что ты имеешь в виду?
– Вообще. О Миражах, об этой станции, о Зете, обо всем этом?
Я пожал плечами, затрудняясь ответить, да ответ, как я чувствовал, и не требовался. Я ждал, что же продолжит говорить Майкл, и он не промедлил.
– Может, Мираж прав? Может быть, действительно, ему виднее? Может, ему удастся найти панацею?
– Какую еще панацею, от чего? – Я не сдержал удивления.
– Не знаю, он же супермозг. А если он сможет построить идеальный мир, утопию, сделать то, что человеку не удалось за несколько тысяч лет? Это ведь его идея. Ты видел его статистику? – продолжал Майкл. – За все эти годы ни один из его прогнозов не был ошибочным, а погрешности были настолько ничтожны, что, в целом, не влияли на результат.
Майкл пригубил еще жидкости из своего стакана и вопросительно посмотрел на меня.
Честно, я мог ожидать от него многого, но не такой тирады. Я задумался, подбирая слова для ответа. Майкл явно был на грани, терзаясь сомнениями, и одной фразой можно было превратить союзника во врага.
– Я не знаю, дружище, вполне возможно, что он, действительно, хочет создать утопию, но мы не можем быть уверены, что его вариант нас устроит. – Я отставил свой бокал в сторону и посмотрел в глаза Майклу. – Я хорошо помню, как ломал его защиту, пытаясь остановить тот поезд, и знаю, что мы бы не разговаривали сейчас, опоздай я хоть на секунду. Может быть, он и способен создать идеальный мировой порядок, но я уверен, что если он в начале своего пути готов убирать с дороги людей, то он и дальше продолжит устилать дорогу скелетами. Не всем придется по нраву то, что во главе нового мироустройства встанет машина, или один человек, если он выставит вместо себя Джеймса, а это значит, что неугодные будут сметены с его пути. Если честно, мне не очень нравится такой вариант развития событий.
Майкл нервно вертел стакан в руках, разглядывая бегающие по столу линии преломленного через грани стекла света.
– Майк, если бы я был уверен, что он на самом деле сможет сделать все лучше, чем есть, я бы не стал ему мешать, но боюсь, что под руководством Джеймса или по собственной инициативе, все пойдет не так. Как говорится – благими намерениями…
– Да, Ден, ты прав, наверное, это что-то вроде «Стокгольмского синдрома», просто он предлагал нам с ним сотрудничать, давал нам время, а мы сами пошли против него.
– Верно, но у него были и другие способы помешать тебе выбраться, менее жестокие.
– Согласен.
Майк налил себе еще и, сделав пару медленных глотков, продолжил.
– Окей, Ден, я на твоей стороне, давай найдем и выключим эту железяку.
– Разумеется.
11
12
– Привет, Денис, в холодильнике еда. Я заказала из твоей любимой доставки, правда, не ожидала, что ты задержишься.
– Угу, спасибо, я и сам не ожидал.
Да, с одной стороны удобно, когда программа знает твои привычки, с другой, ты словно под каким-то контролем. Ты можешь не делать, практически, ничего. Зета, или любая другая машина, включит свет привычной тебе теплоты, поставит твою любимую музыку на самом комфортном для тебя уровне громкости, закажет еду, подогреет чайник до нужной температуры – и так далее, и так далее. Перефразируя известную цитату: «была бы у меня такая машина, я, может быть, и не женился бы…». Но напрягает факт, что все эти вещи делает набор микросхем, который не допустит никакой спонтанности, если ты заранее не внесешь ряд изменений в код. Ладно, когда это происходит на уровне, например, той же умной колонки, а когда это выходит за пределы дома, предприятия, города, страны, мира?
Твои часы точно знают твое расписание: 6:00 – подъем, 6:10 – контрастный душ, 6:30 – завтрак из яичницы с беконом и свежим базиликом. В 6:45 твой компьютер отправляет сигнал автомобилю и удаленно заводит его, прогревая двигатель; пока ты едешь, машина сама анализирует дорожные знаки, сигналы светофора, пробки на дорогах. На обед твой телефон закажет тебе салат, а может, и гамбургер, но не забудет предупредить о риске повышения холестерина. К вечеру твой фитнес-браслет озвучит, сколько шагов тебе осталось до твоей суточной нормы и сочувственно пропищит о том, что стоило бы скинуть еще пару сотен килокалорий.
Очередная программа оплатит все твои счета и составит смету расходов на месяц, подберет подходящий к просмотру фильм, закажет такси, напишет вместо тебя несколько строк на сайт знакомств.
Все это разрабатывалось, чтобы дать человеку больше свободы, но мне кажется, что вышло все с точностью до наоборот. Иллюзия свободного времени отняла самое главное – свободу выбора. Благодаря программам, мы смотрим рекламу, которая, по мнению искусственного интеллекта, больше всего подходит пользователю, а значит, выбор уже определен заранее. Мы едем в отпуск туда, куда посоветовал наш электронный помощник, и заказываем еду там, где, по мнению очередной микросхемы, наиболее подходящие для нашего организма продукты. В итоге мы получаем то, с чем мне приходится сейчас работать. Машина сочла, что она точно изучила все интересы человечества и теперь уверена, что может сделать мир совершенным.
Да к лешему такое мировое устройство! Нет, когда все это закончится, Зету придется отключить, если удастся дожить до этого момента. В идеале, вообще свернуть все