— Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?
— По вашему же приказу, — отрезал Либич.
— Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.
— Чепуха. Ведь роботы не знали…
Бейли подался вперед.
— Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».
— Само собой разумеется.
— Не думаю, чтобы это понимал средний человек — иначе средний человек сознавал бы, что робот способен на убийство.
— Безумие! Бред! — с лица Либича сползла всякая краска.
Бейли внимательно рассматривал свои пальцы.
— Но ведь робот может выполнить невинное задание — ничего такого, что причинило бы вред человеку?
— Если ему прикажут.
— Да, конечно. Если ему прикажут. И второй робот тоже может выполнить невинное задание — ничего такого, что причинило бы вред человеку? Если ему прикажут?
— Да.
— А что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?
— Что? — свирепо нахмурился Либич.
— Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком. Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».
Либич все еще сердитый, молчал.
— Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку? Даже если бы робота заверили, что жидкость безвредна, Первый Закон все же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют. Первый Закон не включается. Разве робот не выполнил бы подобный приказ?
Либич молча злобно смотрел на Бейли.
— Второй же робот, который наливал молоко, — продолжал тот, — не знает, что в него что-то добавили. В полном неведении он подает молоко человеку, и человек умирает.
— Нет! — выкрикнул Либич.
— Почему же нет? Оба задания сами по себе безобидны. Только вместе взятые они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?
— Тогда убийцей будет человек, который отдал эти приказы! — крикнул Либич.
— С философской точки зрения — да. Но убийцами-исполнителями, орудиями убийства, будут роботы.
— Ни один человек не станет отдавать таких приказов.
— Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нем?
— На Солярии слышишь все и вся.
— Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было — вам как солярианин, нет надобности объяснять почему.
— Я не детектив и не выдвигаю гипотез.
— Вот я вам и предлагаю гипотезу. И хочу знать, насколько она реальна. Хочу знать, могут ли двое роботов произвести два раздельных действия, которые сами по себе безобидны, но вместе ведут к убийству. Вы эксперт, доктор Либич. Возможно ли такое?
— Да, — ответил загнанный в угол Либич так тихо, что Бейли с трудом расслышал ответ.
— Очень хорошо. Вот вам ваш Первый Закон.
Приспущенное веко Либича пару раз передернул тик. Он разнял свои сжатые руки, но пальцы остались согнутыми, будто каждая рука продолжала сжимать другую, призрачную. Либич опустил руки на колени, и только тогда пальцы распрямились. Бейли рассеянно наблюдал за его действиями.
— Теоретически возможно, — сказал Либич. — Теоретически! Вам так легко не разделаться с Первым Законом, землянин. Нужно очень умело формулировать приказы, чтобы обойти Первый Закон.
— Согласен, — сказал Бейли. — Я всего лишь землянин и в роботах ничего не понимаю, а приказы, которые приводил в пример, сформулировал условно. У солярианина, я уверен, это получилось бы куда лучше.
Либич, как будто не слыша, громко сказал:
— Если робота можно хитростью заставить причинить вред человеку, это означает только то, что позитронный мозг нужно совершенствовать. Следовало бы, собственно, усовершенствовать человека, но это не в нашей власти — значит, надо повышать дуракоустойчивость робота. Мы прогрессируем. Наши роботы стали разнообразнее, профессиональнее, способнее и безвреднее, чем были век назад. А через сто лет мы добьемся еще большего. Зачем заставлять робота управлять машиной, если можно снабдить позитронным мозгом саму машину. Это специализация, а возможна и универсализация. Почему бы не создать робота со съемными и сменными конечностями? А? Если бы…
— Вы единственный роботехник на Солярии? — прервал его Бейли.
— Не говорите глупостей.
— Я только спрашиваю. Доктор Дельмар, например, был единственный… э-э… фетоинженер, не считая его ассистентки.
— На Солярии около двадцати роботехников.
— И вы — лучший?
— Лучший, — ответил Либич без ложной скромности.
— И Дельмар работал с вами.
— Да.
— Насколько я понимаю, перед смертью он собирался прервать ваше сотрудничество.
— Ничего похожего. Кто подал вам эту мысль?
— Сдается мне, он не одобрял вашего холостого образа жизни.
— Наверное. Он был истинный солярианин. Но это не влияло на наши деловые отношения.
— Чтобы сменить тему: вы ведь не только разрабатываете новые модели, но также выпускаете роботов и ремонтируете их?
— Производством и ремонтом занимаются в основном сами роботы. В моем имении есть большой сборочный завод и ремонтная мастерская.
— Ремонтировать роботов очень сложно?
— Очень просто.
— Значит, техника ремонта недостаточно развита?
— Это вовсе не так.
— А как же тот робот, что присутствовал при убийстве доктора Дельмара?
Либич отвел глаза и сдвинул брови, будто в глубокой печали.
— С ним ничего нельзя было сделать.
(adsbygoogle = window.adsbygoogle || []).push({});