Обнаженное солнце - Айзек Азимов 23 стр.


– Если вы тот инопланетянин, которого грозился доставить Грюер…

– Тот самый.

– Тогда вы здесь вопреки моему совету. Сеанс окончен.

– Нет, не прерывайте сеанс. – Бейли повысил голос и наставил на роботехника палец – тот при этом заметно отпрянул, в отвращении скривив свои полные губы, – Я ведь не блефовал, говоря о встрече.

– Пожалуйста, избавьте меня от вашей земной вульгарности.

– Если я что-то говорю, я это делаю. Я приду к вам, если нельзя заставить вас говорить по-другому. Возьму за шиворот и заставлю выслушать меня.

– Вы грязная скотина, – Либич попятился.

– Это как вам угодно, но я так и поступлю.

– Если вы вторгнетесь в мое имение, я… я…

– Что вы? Убьете меня? Вы часто так угрожаете людям?

– Я вам не угрожал.

– Тогда поговорим. Мы и так уже потеряли много ценного времени. Вы тесно сотрудничали с доктором Дельмаром. Верно?

Роботехник опустил голову и стал дышать медленно и мерно. Когда он поднял глаза, то уже полностью владел собой и даже выдавил короткую безжизненную улыбку.

– Да.

– Дельмара, насколько я понял, интересовали роботы нового типа,

– Да.

– Какого именно типа?

– Вы роботехник?

– Нет. Объясните мне так, чтобы я понял.

– Не уверен, что смогу.

– А вы постарайтесь. Я, например, думаю, что ему нужны были роботы, способные заставить детей слушаться, Что для этого требовалось?

Либич поднял брови.

– Если не вдаваться в детали и опустить различные тонкости, то нужно усилить С-интеграл, управляющий двойной маршруткой реакцией Сикоровича на уровне W-65.

– Ребус какой-то.

– Тем не менее…

– Все равно ребус. Вы не можете объяснить по-другому?

– Это означает некоторое ослабление Первого Закона.

– Почему? Ведь ребенка наказывают для его же пользы – такова идея, верно?

– Для его же пользы! – Глаза Либича вспыхнули, и он, почти позабыв о своем собеседнике, заговорил более свободно. – По-вашему, все так просто? Много ли людей способно претерпеть мелкие неудобства во имя будущих благ? Попробуйте внушить ребенку, что от сладкого у него может заболеть живот, а от горького живот вскоре пройдет! И вы хотите, чтобы это понял робот? Боль, которую робот причиняет ребенку, посылает мощный разрушительный импульс в позитронный мозг. Чтобы уравновесить этот импульс другим, выражающим будущую пользу, нужно столько основных и дополнительных схем, что мозг увеличивается на пятьдесят процентов – если не пожертвовать прочими схемами.

– Значит, вам не удалось создать такого робота?

– Нет, не удалось и не удастся. Да и никому не удастся.

– В день своей смерти Дельмар испытывал именно такую модель?

– Нет, не такую. Нас интересовали и более практические проблемы.

– Доктор Либич, – спокойно сказал Бейли, – мне предстоит еще многое усвоить в области роботехники, и я хочу попросить вас стать моим учителем.

Либич затряс головой, и его приспущенное веко сползло еще ниже, будто он подмигнул, – впечатление получилось жутковатое.

– Излишне объяснять, что курс роботехники нельзя прочесть в считанные минуты. У меня нет времени.

– И все-таки вам придется позаниматься со мной. Тут у вас на Солярии все пропахло роботами. Если вопрос только во времени, я тем более должен к вам приехать. Я землянин и не могу удовлетворительно работать или думать с помощью видео.

Казалось бы, Либичу больше некуда выпрямляться, но он выпрямился.

– Ваши земные фобии меня не волнуют. Визит невозможен.

– Думаю, вы перемените свое мнение, когда я скажу то главное, о чем хотел проконсультироваться с вами.

– Что бы вы ни сказали, это ничего не изменит.

– Да? Тогда слушайте. Я убежден, что на протяжении всей истории существования позитронного робота Первый Закон Роботехники намеренно читался неверно.

– Как неверно? – дернулся Либич. – Глупец! Сумасшедший! Почему?

– Чтобы скрыть тот факт, – невозмутимо сказал Бейли, – что робот способен совершить убийство.

Глава четырнадцатая

Мотив выявляется

Либич медленно разинул рот. Бейли подумал, что он сейчас зарычит, но потом с большим удивлением убедился, что это самая неудачная попытка улыбнуться, которую ему доводилось видеть,

– Не говорите так, – сказал Либич. – Нигде и никогда.

– Почему?

– Потому что опасно поощрять недоверие к роботам даже в самой малой степени. Недоверие к роботам – болезнь человечества!

Он говорил так, будто внушал что-то малому ребенку. Говорил мягко, хотя ему, должно быть, хотелось орать в голос. Говорил, стараясь убедить, хотя с большей охотой, очевидно, прочитал бы Бейли смертный приговор.

– Вы знаете историю роботехники? – спросил он.

– Немного,

– Должны знать, раз вы землянин. Так вот. Вы знаете, что роботов с самого начала встретил комплекс Франкенштейна? Их подозревали. Люди не доверяли им, боялись их. В результате роботехника стала чуть ли не подпольной наукой. Три Закона были приняты ради того, чтобы преодолеть эту враждебность, но даже и тогда Земля не допустила роботов в человеческое общество. Одной из причин, по которой первые поселенцы покинули Землю и отправились колонизировать космос, было создание социальных структур, где роботы могли бы избавить человека от бедности и тяжкого труда. И даже там подозрение продолжало тлеть, готовое в любой момент вырваться наружу.

– А вам приходилось сталкиваться с недоверием к роботам?

– Много раз, – мрачно ответил Либич.

– И потому вы и прочие роботехники сговорились чуть-чуть исказить факты, лишь бы усыпить общее подозрение?

– Никто ничего не искажал!

– И все Три Закона сформулированы правильно?

– Да!

– А я могу вам доказать, что неправильно, и, если вы не убедите меня в обратном, я по возможности повторю это перед всей Галактикой.

– Вы не в своем уме. Какое бы доказательство вы там ни выдумали, оно ложное, уверяю вас.

– Обсудим?

– Если это не займет много времени.

– Встретимся? Лицом к лицу? Худое лицо Либича передернулось.

– Нет!!

– До свидания, доктор Либич, Найдутся люди, которые меня выслушают.

– Подождите. Великая Галактика, да подождите же!

– Встретимся?

Роботехник медленно поднес руку к губам, помедлил, сунул в рот большой палец и уставился на Бейли пустым взором.

Что он, возвращается в младенчество, в возраст до пяти лет, когда ничто не запрещало ему встретиться со мной? – недоумевал Бейли.

– Встретимся? – повторил инспектор.

Либич медленно покачал головой.

– Не могу. Не могу, – простонал он едва разборчиво – мешал палец во рту. – Делайте что хотите.

На глазах у Бейли он отвернулся к стене, прямая спина согнулась, и дрожащие руки закрыли лицо.

– Что ж, хорошо, я согласен продолжать разговор по видео, – сказал Бейли.

– Извините меня. Сейчас вернусь, – не поворачиваясь, произнес Либич.

Бейли, освежившись в перерыве, смотрел на свое свежеумытое лицо в зеркале ванной. Кажется, он начинает чувствовать Солярию и соляриан? Пока трудно сказать. Он вздохнул, нажал кнопку – появился робот. Бейли, не оборачиваясь, спросил:

– Есть на ферме другой видеофон, кроме того, которым я пользуюсь?

– Еще три пульта, господин.

– Тогда скажи Клориссе Канторо – скажи своей госпоже, что я пока буду занимать этот и прошу меня не беспокоить.

– Да, господин.

Бейли вернулся туда, где в кадре так и оставался пустой угол комнаты Либича. Роботехник еще не вернулся, и Бейли настроился ждать, но ждал недолго. Вошел Либич, и его комната снова поехала вслед за ним. Очевидно, фокус тут же переместился с комнаты на человека. Бейли вспомнил, как сложно устроен видеофон, и не мог не подивиться совершенству аппарата.

Либич, кажется, вполне овладел собой. Он зачесал волосы назад и переоделся. Теперь на нем был свободный костюм из блестящего, отражающего свет материала. Он опустился на легкий стульчик, откинув его от стены, и спросил ровным голосом:

– Итак, что вы собирались мне сказать относительно Первого Закона?

– Нас никто не подслушает?

– Нет, я принял меры.

Бейли кивнул.

– С вашего разрешения я процитирую Первый Закон.

– Едва ли в этом есть необходимость.

– Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

– И что же?

– Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…

– Знаю, знаю, – нетерпеливо прервал Либич. – Какое это имеет отношение к делу?

– Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?

– По вашему же приказу, – отрезал Либич.

– Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.

– Чепуха. Ведь роботы не знали…

Бейли подался вперед.

– Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».

– Само собой разумеется.

– Не думаю, чтобы это понимал средний человек – иначе средний человек сознавал бы, что робот способен на убийство.

– Безумие! Бред! – с лица Либича сползла всякая краска.

Бейли внимательно рассматривал свои пальцы. – Но ведь робот может выполнить невинное задание – ничего такого, что причинило бы вред человеку?

– Если ему прикажут.

– Да, конечно. Если ему прикажут, И второй робот тоже может выполнить невинное задание – ничего такого, что причинило бы вред человеку? Если ему прикажут?

– Да.

– а что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?

– Что? – свирепо нахмурился Либич.

– Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком, Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».

Либич, все еще сердитый, молчал.

– Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку? Даже если бы робота заверили, что жидкость безвредна, Первый Закон все же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют, Первый Закон не включается. Разве робот не выполнил бы подобный приказ?

Либич молча злобно смотрел на Бейли.

– Второй же робот, который наливал молоко, – продолжал тот, – не знает, что в него что-то добавили. В.полном неведении он подает молоко человеку, и человек умирает.

Назад Дальше