Шрифт:
Интервал:
Закладка:
Но есть разница между романами, которые, так получилось, легки для подросткового восприятия, и теми книгами, которые ловят подростков в свои теплочувствительные, деньговыкачивающие прицелы. Я знаю одного писателя, которому пришлось вернуться к уже написанному взрослому роману и вырвать его с корнем: после чего вывести текст, переписанный и обклеенный скотчем, на эшафот YA, потому что только так его можно было продать. Я знаю очень умного, крайне уважаемого редактора, который однажды превозносил замечательный, хорошо продуманный сюжет книжек про Гарри Поттера, очевидно не замечая того, что Роулинг – как бы она ни утверждала обратное – похоже, придумывала эту хрень по ходу дела.[110] Давным-давно друг детства подарил мне на десятый день рождения сборник рассказов Эдгара Аллана По. Я в них влюбился. Они меня многому научили – заставили меня многому себя научить, точно так же, как пару десятилетий спустя песня Jethro Tull вынудила меня отыскать, что такое «волна избыточного давления». Я не могу не думать, делает ли это YA, улучшает ли такая литература навыки чтения или просто подлаживается под них. Я сомневаюсь, что ваш словарный запас становится сильно больше, когда вы дочитываете «Гарри Поттера и Заслуженную Оплеуху», чем когда вы его открываете. Возможно, вы и развлеклись, но не прокачались.
Конечно, если вам нужно только развлечение, – не беда. Проблема, однако, в том, что работает это как храповик. Если мы позволяем себе писать только проще и никогда – сложнее, а возраст аудитории YA становится выше и никогда – ниже, – трудно представить, что общая зрелость нашей прозы может поступать как-то иначе, нежели постоянно деградировать с течением времени.
Ну и кто из вас скажет мне, что это хорошо?
Похвальное слово военным преступлениям
(Журнал Nowa Fantastyka, январь 2014 года)
Терминатор добрался до страниц Science. В выпуске этого престижного журнала от 20 декабря присутствует статья под названием «Ученые выступают против роботов-убийц», дающая представление о нарастающем стихийном движении против автономных машин для убийства на полях сражений. Чтобы вы не подумали, что речь идет о все увеличивающемся флоте дронов, которые с таким энтузиазмом используют США, – ну вы знаете, того оружия, которое администрация Обамы восхваляет как гораздо «более точное» в сравнении с обычными авиаударами, по крайней мере на тех пресс-конференциях, где они не выражают соболезнования в связи с тем, что еще одна свадебная вечеринка в Йемене была случайно взорвана во время очередной атаки «Хищников», – давайте я введу вас в курс дела. «Хищники» – марионетки, а не роботы. Пусть их пилоты и попивают кофеек в каком-нибудь кондиционируемом аризонском офисе, управляя своей техникой издалека, но, по крайней мере, решение превратить детишек в сопутствующие потери принимается людьми.
Конечно, проблема (ладно, одна из проблем) с управлением марионеткой с расстояния 8000 километров в том, что ее ниточки можно заглушить или хакнуть. (Возможно, вы слышали об иракских партизанах, перехвативших видеосигнал «Хищника» с помощью железок, которые в магазине радиотоваров стоят 26 долларов максимум.) Как было бы прекрасно, если бы мы не нуждались в этой пуповине. Как было бы прекрасно, если бы наши роботы принимали решения сами.
У меня, как у фантаста, от таких проблем традиционно стояк (я даже пару лет назад написал на эту тему рассказ – «Малак»). Я отслеживаю подобные разработки. Нам говорят, что еще нескоро появятся по-настоящему автономные машины-убийцы: роботы, способные отличить своих от чужих, оценить относительный потенциал угрозы, принять решение убить эту цель, а вон ту оставить в живых. Но они будут. Конечно, Пентагон в 2013 году заявил, что у него нет «никаких полностью автономных систем, ни в разработке, ни в планах», – но когда последний раз кто-нибудь верил Пентагону? Особенно в свете директивы Департамента обороны США за 2012 год, где открытым текстом обозначены критерии для «разработки и использования автономных и полуавтономных функций в оружейных системах, включая пилотируемые и беспилотные платформы»[111].
Покопайтесь в этой директиве и обнаружите традиционные сладкоречивые уверения в том, что Реальный контроль останется за людьми. Чрезвычайно важным считается, например, что «в случае частичной или полной потери связи система не будет автономно выбирать и атаковать индивидуальные цели или конкретные группы целей, которые не были прежде выбраны авторизованным оператором-человеком». Но не нужно быть Айзеком Азимовым, чтобы увидеть, как легко можно обойти это конкретное правило робототехники. Предположим, оператор-человек действительно одобрил цель как раз перед тем, как потерял связь с дроном. Теперь дрону дозволено охотиться за ней самостоятельно. Откуда ему знать, что цель, только что показавшаяся из-за вон того камня, – та же, которая нырнула за него десятью секундами раньше? Может, он ориентируется на черты лица? А если на цели одежда, скрывающая лицо? Может, он ориентируется на одежду? А если цель поменяется головными уборами с другом?
Согласно журналу Science, борьба против создания таких машин – которую ведут организации с названиями типа «Конвенция о конкретных видах обычного оружия» и «Международный комитет по контролю над роботизированным оружием» – основывается на том аргументе, что роботы не обладают надежной способностью различать комбатантов и мирных жителей в пылу сражения. Я нахожу этот аргумент одновременно тревожным и неубедительным. Самое очевидное возражение опирается на закон Мура: если роботы не могут чего-то сегодня, есть чертовски неплохая вероятность, что они смогут это завтра. Еще одна проблема – такая, что может укусить вас за жопу прямо сейчас, пока вы ждете наступления завтра, – в том, что даже люди не всегда способны надежно различать друзей и врагов. По крайней мере, североамериканским копам часто спускают с рук то, что они расстреляли какого-нибудь невинного гражданина, ошибочно предположив, что их жертва тянется за пистолетом, а не за мобильником.
Неужели кто-то действительно верит, что мы будем предъявлять к машинам более высокие требования, чем к себе самим? Или, как сформулировали Лин и др. еще в 2008 году, в работе «Автономные военные роботы: риск, этичность и проектирование»:
«Целью должна быть не этически непогрешимая машина. Целью должно быть создание машины, которая превосходит человека на поле боя, в особенности в плане снижения количества противозаконных поступков и военных преступлений».
Ах да, военные преступления. Мой последний аргумент. Видите ли, очень сложно повесить военное преступление на машину. Если стандартный дистанционно