"Обнаженное солнце (пер. Н.Виленская)" - читать интересную книгу автора (Азимов Айзек)

Глава четырнадцатая Мотив выявляется

Либич медленно разинул рот. Бейли подумал, что он сейчас зарычит, но потом с большим удивлением убедился, что это самая неудачная попытка улыбнуться, которую ему доводилось видеть,

– Не говорите так, – сказал Либич. – Нигде и никогда.

– Почему?

– Потому что опасно поощрять недоверие к роботам даже в самой малой степени. Недоверие к роботам – болезнь человечества!

Он говорил так, будто внушал что-то малому ребенку. Говорил мягко, хотя ему, должно быть, хотелось орать в голос. Говорил, стараясь убедить, хотя с большей охотой, очевидно, прочитал бы Бейли смертный приговор.

– Вы знаете историю роботехники? – спросил он.

– Немного,

– Должны знать, раз вы землянин. Так вот. Вы знаете, что роботов с самого начала встретил комплекс Франкенштейна? Их подозревали. Люди не доверяли им, боялись их. В результате роботехника стала чуть ли не подпольной наукой. Три Закона были приняты ради того, чтобы преодолеть эту враждебность, но даже и тогда Земля не допустила роботов в человеческое общество. Одной из причин, по которой первые поселенцы покинули Землю и отправились колонизировать космос, было создание социальных структур, где роботы могли бы избавить человека от бедности и тяжкого труда. И даже там подозрение продолжало тлеть, готовое в любой момент вырваться наружу.

– А вам приходилось сталкиваться с недоверием к роботам?

– Много раз, – мрачно ответил Либич.

– И потому вы и прочие роботехники сговорились чуть-чуть исказить факты, лишь бы усыпить общее подозрение?

– Никто ничего не искажал!

– И все Три Закона сформулированы правильно?

– Да!

– А я могу вам доказать, что неправильно, и, если вы не убедите меня в обратном, я по возможности повторю это перед всей Галактикой.

– Вы не в своем уме. Какое бы доказательство вы там ни выдумали, оно ложное, уверяю вас.

– Обсудим?

– Если это не займет много времени.

– Встретимся? Лицом к лицу? Худое лицо Либича передернулось.

– Нет!!

– До свидания, доктор Либич, Найдутся люди, которые меня выслушают.

– Подождите. Великая Галактика, да подождите же!

– Встретимся?

Роботехник медленно поднес руку к губам, помедлил, сунул в рот большой палец и уставился на Бейли пустым взором.

Что он, возвращается в младенчество, в возраст до пяти лет, когда ничто не запрещало ему встретиться со мной? – недоумевал Бейли.

– Встретимся? – повторил инспектор.

Либич медленно покачал головой.

– Не могу. Не могу, – простонал он едва разборчиво – мешал палец во рту. – Делайте что хотите.

На глазах у Бейли он отвернулся к стене, прямая спина согнулась, и дрожащие руки закрыли лицо.

– Что ж, хорошо, я согласен продолжать разговор по видео, – сказал Бейли.

– Извините меня. Сейчас вернусь, – не поворачиваясь, произнес Либич.

Бейли, освежившись в перерыве, смотрел на свое свежеумытое лицо в зеркале ванной. Кажется, он начинает чувствовать Солярию и соляриан? Пока трудно сказать. Он вздохнул, нажал кнопку – появился робот. Бейли, не оборачиваясь, спросил:

– Есть на ферме другой видеофон, кроме того, которым я пользуюсь?

– Еще три пульта, господин.

– Тогда скажи Клориссе Канторо – скажи своей госпоже, что я пока буду занимать этот и прошу меня не беспокоить.

– Да, господин.

Бейли вернулся туда, где в кадре так и оставался пустой угол комнаты Либича. Роботехник еще не вернулся, и Бейли настроился ждать, но ждал недолго. Вошел Либич, и его комната снова поехала вслед за ним. Очевидно, фокус тут же переместился с комнаты на человека. Бейли вспомнил, как сложно устроен видеофон, и не мог не подивиться совершенству аппарата.

Либич, кажется, вполне овладел собой. Он зачесал волосы назад и переоделся. Теперь на нем был свободный костюм из блестящего, отражающего свет материала. Он опустился на легкий стульчик, откинув его от стены, и спросил ровным голосом:

– Итак, что вы собирались мне сказать относительно Первого Закона?

– Нас никто не подслушает?

– Нет, я принял меры.

Бейли кивнул.

– С вашего разрешения я процитирую Первый Закон.

– Едва ли в этом есть необходимость.

– Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

– И что же?

– Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…

– Знаю, знаю, – нетерпеливо прервал Либич. – Какое это имеет отношение к делу?

– Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?

– По вашему же приказу, – отрезал Либич.

– Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.

– Чепуха. Ведь роботы не знали…

Бейли подался вперед.

– Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».

– Само собой разумеется.

– Не думаю, чтобы это понимал средний человек – иначе средний человек сознавал бы, что робот способен на убийство.

– Безумие! Бред! – с лица Либича сползла всякая краска.

Бейли внимательно рассматривал свои пальцы. – Но ведь робот может выполнить невинное задание – ничего такого, что причинило бы вред человеку?

– Если ему прикажут.

– Да, конечно. Если ему прикажут, И второй робот тоже может выполнить невинное задание – ничего такого, что причинило бы вред человеку? Если ему прикажут?

– Да.

– а что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?

– Что? – свирепо нахмурился Либич.

– Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком, Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».

Либич, все еще сердитый, молчал.

– Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку? Даже если бы робота заверили, что жидкость безвредна, Первый Закон все же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют, Первый Закон не включается. Разве робот не выполнил бы подобный приказ?

Либич молча злобно смотрел на Бейли.

– Второй же робот, который наливал молоко, – продолжал тот, – не знает, что в него что-то добавили. В.полном неведении он подает молоко человеку, и человек умирает.

– Нет! – выкрикнул Либич.

– Почему же нет? Оба задания сами по себе безобидны. Только вместе взятые они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?

– Тогда убийцей будет человек, который отдал эти приказы! – крикнул Либич.

– С философской точки зрения – да. Но убийцами-исполнителями, орудиями убийства, будут роботы.

– Ни один человек не станет отдавать таких приказов.

– Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нем?

– На Солярии слышишь все и вся.

– Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было – вам как солярианин, нет надобности объяснять почему,

– Я не детектив и не выдвигаю гипотез.

– Вот я вам и предлагаю гипотезу. И хочу знать, насколько она реальна. Хочу знать, могут ли двое роботов произвести два раздельных действия, которые сами по себе безобидны, но вместе ведут к убийству. Вы эксперт, доктор Либич, Возможно ли такое?

– Да, – ответил загнанный в угол Либич так тихо, что Бейли с трудом расслышал ответ.

– Очень хорошо. Вот вам ваш Первый Закон.

Приспущенное веко Либича пару раз передернул тик. Он разнял свои сжатые руки, но пальцы остались согнутыми, будто каждая рука продолжала сжимать другую, призрачную. Либич опустил руки на колени, и только тогда пальцы распрямились. Бейли рассеянно наблюдал за его действиями.

– Теоретически возможно, – сказал Либич. – Теоретически! Вам так легко не разделаться с Первым Законом, землянин. Нужно очень умело формулировать приказы, чтобы обойти Первый Закон.

– Согласен, – сказал Бейли. – Я всего лишь землянин и в роботах ничего не понимаю, а приказы, которые приводил в пример, сформулировал условно. У солярианина, я уверен, это получилось бы куда лучше.

Либич, как будто не слыша, громко сказал:

– Если робота молено хитростью заставить причинить вред человеку, это означает только то, что позитронный мозг нужно совершенствовать. Следовало бы, собственно, усовершенствовать человека, но это не в нашей власти – значит, надо повышать дуракоустойчивость робота. Мы прогрессируем. Наши роботы стали разнообразнее, профессиональнее, способнее и безвреднее, чем были век назад. А через сто лет мы добьемся еще большего. Зачем заставлять робота управлять машиной, если можно снабдить позитронным мозгом саму машину. Это специализация, а возможна и универсализация. Почему бы не создать робота со съемными и сменными конечностями? А? Если бы…

– Вы единственный роботехник на Солярии? – прервал его Бейли.

– Не говорите глупостей.

– Я только спрашиваю. Доктор Дельмар, например, был единственный… э-э… фетоинженер, не считая его ассистентки.

– На Солярии около двадцати роботехников.

– И вы – лучший?

– Лучший, – ответил Либич без ложной скромности.

– И Дельмар работал с вами.

– Да.

– Насколько я понимаю, перед смертью он собирался прервать ваше сотрудничество.

– Ничего похожего. Кто подал вам эту мысль?

– Сдается мне, он не одобрял вашего холостого образа жизни.

– Наверное. Он был истинный солярианин. Но это не влияло на наши деловые отношения,

– Чтобы сменить тему: вы ведь не только разрабатываете новые модели, но также выпускаете роботов и ремонтируете их?

– Производством и ремонтом занимаются в основном сами роботы. В моем имении есть большой сборочный завод и ремонтная мастерская.

– Ремонтировать роботов очень сложно?

– Очень просто.

– Значит, техника ремонта недостаточно развита?

– Это вовсе не так.

– А как же тот робот, что присутствовал при убийстве доктора Дельмара?

Либич отвел глаза и сдвинул брови, будто в глубокой печали.

– С ним ничего нельзя было сделать.

– Так-таки ничего? Он совсем не мог отвечать на вопросы?

– Ни на один. Бесполезно было и пробовать. Позитронный мозг замкнуло необратимо. Не осталось ни одной неповрежденной схемы. Поймите – он был свидетелем убийства, которому не мог помешать.

– А почему, кстати?

– Кто знает? С ним экспериментировал доктор Дельмар. Я не знаю, в каком умственном состоянии находился робот. Дельмар, например, мог ему приказать приостановить все операции, пока исследовалась одна определенная схема. Если кто-то, кого ни доктор Дельмар, ни робот ни в чем дурном не подозревали, вдруг совершил смертоносное нападение, должно было пройти какое-то время, чтобы потенциал Первого Закона в мозгу робота преодолел блокирующий приказ Дельмара. Время задержки зависит от способа нападения и от формулировки приказа. Могу вам подобрать еще с дюжину причин, по которым робот не мог помешать убийству. Так или иначе, Первый Закон был нарушен, оттого и сгорели все схемы в позитронном мозгу.

– Но если робот физически не мог помешать убийству, разве он несет за это ответственность? Разве Первый Закон требует невозможного?

Либич пожал плечами.

– Первый Закон, несмотря на ваши попытки умалить его, защищает человека до последнего. Он не допускает исключений. Если Первый Закон нарушен, робот погибает.

– Это универсальное правило, сэр?

– Такое же универсальное, как и сам робот.

– Вот я и узнал кое-что,

– Тогда узнайте кое-что еще. Ваша гипотеза убийства как серии безобидных в отдельности поступков роботов в деле Дельмара не срабатывает.

– Почему?

– Дельмара не отравили – его ударили по голове. Кто-то должен был нанести удар, и нанесла его человеческая рука. Ни один робот не возьмет дубинку и не размозжит человеку череп.

– А если робот нажал безобидную кнопку и на голову Дельмара упал замаскированный груз?

– Землянин, – кисло улыбнулся Либич – я был на месте преступления. И не пропустил ни одного выпуска новостей. Убийство на Солярии, знаете ли, дело нешуточное. Я точно знаю, что на месте преступления не было никаких механизмов, никаких падающих грузов.

– И никаких тяжелых предметов.

– Вы сыщик, вот и ищите.

– Если исключить причастность роботов к смерти Дельмара, кто же тогда виновен?

– Известно кто! – крикнул Либич. – Его жена! Глэдия!

Тут, по крайней мере, наблюдается полное единодушие, подумал Бейли. Вслух он сказал:

– А кто же тогда с таким искусством заставил роботов отравить Грюера?

– Ну, наверное… – начал Либич и осекся.

– Не думаете же вы, что убийц было двое? Если Глэдия виновна в одном преступлении, она виновна и в другом.

– Да. Должно быть, вы правы. – Либич вновь обрел уверенность. – Без сомнения, так оно и есть.

– Без сомнения?

– Никто другой не мог настолько близко подойти к Дельмару, чтобы убить его. Он допускал присутствие посторонних не больше, чем я, только для жены делал исключение – а я никаких исключений не делаю. Тем умнее с моей стороны, – рассмеялся он.

– А ведь вы хорошо ее знаете, – резко сказал Бейли.

– Кого?

– Ее. Ту, о ком мы говорим. Глэдию!

– Кто вам сказал, что я знаю ее ближе, чем кого-либо? – Либич чуть-чуть, на дюйм, ослабил застежку у воротника, чтобы легче было дышать.

– Сама Глэдия. Вы вместе ходили на прогулки.

– Так что же? Мы были соседи. Это в порядке вещей, Она мне казалась приятной особой.

– Значит, вы себя хорошо чувствовали в ее обществе?

– Беседы с ней помогали снять напряжение, – пожал плечами Либич.

– О чем вы разговаривали?

– О роботехнике. – В голосе Либича прозвучало легкое недоумение; о чем же, мол, еще?

– И она поддерживала разговор?

– Она ничего в этом не понимала, Ни аза! Но слушала. Сама она забавляется какой-то ерундой с силовыми полями – называется полевая колористика. Меня эти глупости выводят из терпения, но я тоже слушал.

– Личных контактов у sac не было?

Возмущенный Либич промолчал,

– Она вам нравилась? – Бейли попытался с другой стороны.

– Что?

– Она привлекала вас? Физически?

Веко Либича подтянулось и стало ка место, губы скривились.

– Грязная скотина, – буркнул он.

– Ладно, попробуем иначе. Когда Глэдия перестала казаться вам приятной? Вы сами употребили это слово, если помните.

– О чем вы?

– Вы сказали, что находили ее общество приятным. Теперь вы считаете, что она убила своего мужа, Приятные люди обычно так не поступают.

– Я в ней ошибался.

– Но вы поняли, что ошиблись в ней, еще до того, как она убила мужа – если убила. Вы прекратили прогулки с ней за некоторое время до убийства. Почему?

– Это так важно?

– Важно все, пока не будет доказано обратное.

– Послушайте, если я нужен вам в качестве роботехника – спрашивайте, На вопросы о своей личной жизни я отвечать не буду.

– Вы были тесно связаны и с убитым, и с подозреваемой, Разве вы не понимаете, что без нескромных вопросов не обойтись? Почему вы прекратили прогулки с Глэдией?

– Мне стало не о чем с ней говорить, – огрызнулся Либич. – Я был слишком занят. Я не видел смысла продолжать эти прогулки.

– Другими словами, ее общество перестало быть приятным.

– Хорошо, пусть так.

– Почему?

– Потому! – Либич сорвался на крик.

– И все-таки вы хорошо знали Глэдию, – не обращая внимания на волнение роботехника, сказал Бейли. – Какой у нее мог быть мотив?

– Мотив?

– Никто пока не назвал мне возможного мотива преступления. Не могла же она совершить убийство без причины.

– Великая Галактика! – Либич откинул голову словно хотел засмеяться, но не засмеялся. – И вам никто не сказал? Что ж, может быть, никто и не знает. Но я-то знаю. Она мне говорила – и часто.

– Что говорила, доктор Либич?

– Что все время ссорится с мужем. Ссоры были бурные и частые. Она ненавидела его, землянин. Так значит, вам никто об этом не говорил? И она тоже?