chitay-knigi.com » Современная проза » Роботы-убийцы против человечества. Киберапокалипсис сегодня - Елена Ларина

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 26 27 28 29 30 31 32 33 34 ... 53
Перейти на страницу:

Реализация закона С. Лема. В 60-е гг. прошлого века всемирно известный фантаст и мыслитель С. Лем сформулировал и подкрепил эмпирическим материалом тезис, который получил название закона С. Лема. Закон имеет различные формулировки, но общий его смысл состоит в том, что разрушительная мощь, включая возможности нанесения увечий и даже убийства, малой группы и даже отдельного человека постоянно нарастает. С конца XIX века она увеличивается по экспоненте. И до Лема было понятно, что воин с мечом может поразить меньше людей, чем солдат с винтовкой, а тем более, человек, имеющий пулемет. В течение последних 50 лет тенденция, замеченная С. Лемом, проявила себя в полной мере. На сегодняшний день экспоненциальный характер закона Лема приближается к своей предельной форме.

Уже сегодня небольшая группа, используя доступные на коммерческой основе ресурсы, общей стоимостью менее 250 тыс. долларов США, может, комбинируя робота в виде дрона и бактериологическое оружие, погубить население города с населением несколько миллионов человек.

По оценкам экспертов в ближайшие 3-5 лет на основе достижений синтетической биологии, удастся получить биологически активные структуры, способные избирательно уничтожать всех людей на земле, имеющих тот или иной генетический или иной маркер. Если раньше крупные операции требовали значительных ресурсов и существования мощных организационных структур, то в буквальном смысле завтра глобальные преступные и террористические акты сможет провести если не один человек, то группа из 3-5 единомышленников. Ни разведывательные сообщества, ни правоохранительные органы практически всех стран мира не умеют и не знают, как бороться с такими микровысокотехнологичными деструктивными группами. Вся их техника, технологии работы, организационные процедуры, кадровые структуры заточены под другие виды терроризма, преступности и экстремизма. Между тем, именно такие малые и сверхмалые группы, действуя либо самостоятельно, либо как периферийные части деструктивных стай, станут уже в ближайшие годы главной угрозой не только для отдельных городов и стран, но и глобальной цивилизации в целом.

Интеллектуализация «роботов-убийц». Первые военные роботы появились в 70-х гг. прошлого века в Соединенных Штатах и СССР. Они выполняли преимущественно разведывательные функции. Таким образом, в военное дело роботы проникли раньше, чем в промышленность и другие гражданские отрасли. Следующий решающий прорыв был сделан уже в нашем столетии в Соединенных Штатах и Израиле. Он связан с появлением специализированных и универсальных воздушных роботов или дронов. За последние 10-12 лет дроны, а вслед за ними наземные, а в последние годы водные и подводные роботы преимущественно военного применения, проделали заметную эволюцию. В настоящее время они используются как непосредственно в военных действиях, будучи оснащенными средствами огневого поражения, так и для вспомогательных операций и разведки. По имеющимся данным роботы используются армиями более чем 30 стран мира. Из армии патрульные и транспортные роботы проникли в полицию. Полиция более чем 15 государств сегодня оснащена дронами и надводными патрулирующими роботами.

Стремительная роботизация вооруженных сил и полиции уже в середине нулевых годов привела к напряженным дискуссиям не только среди специалистов и общественности, но и в военных и политических кругах относительно допустимых границ интеллектуализации боевых роботов. До настоящего времени боевые роботы в Соединенных Штатах, Великобритании, других западноевропейских странах в обязательном порядке на стадии нанесения огневого удара находятся под управлением удаленных операторов. Окончательное решение о применении ракет, других средств огневого поражения принимают не программно-аппаратные комплексы, а удаленные операторы.

Существует все расширяющаяся коалиция стран, которая выступает за заключение международных соглашений относительно применения робототехники в военных действиях. В соответствующих инициативах, которые обсуждаются на уровне ООН, предусматривается не допускать производства, а тем более применения роботов, где окончательное решение по применению огневых и иных средств летального поражения принимает не человек, а программно-аппаратные комплексы.

К сожалению, беспристрастный анализ показывает, что в случае подобной законодательной инициативы даже при ее принятии и подписании соответствующего договора основными державами, располагающими наиболее мощными армиями, фактически соглашение выполняться не будет. Террористы, преступники и экстремисты действуют вне правового поля, нарушая любые законы и международные нормы. Это не значит, что не нужны законы и нормы. Но законы и нормы будут действовать лишь в том случае, если обладают механизмом реализации и контроля за исполнением. В случае высокоинтеллектуальных боевых роботов, или, как их именуют в СМИ, «роботов-убийц» такие механизмы не только отсутствуют, но и невозможны в принципе.

Причина невозможности лежит не в плоскости права, а связана с логикой развития технологий. Господствующими тенденциями развития робототехники являются повышение автономности этих систем, их универсализация и главное, модульный способ производства. На практике это означает, что уже сегодня, любой сложный универсальный робот предполагает наличие блока полностью автономного управления. Т. е. роботы содержат аппаратную часть и программные средства, позволяющие им в неблагоприятных средах осуществлять любые операции и действия без контакта с удаленным человеком-оператором. Не существует каких-либо сложностей для того, чтобы дополнить универсального сложного робота огневым модулем и дополнительным программным компонентом, управляющим этим модулем.

В ближайшие годы преступникам, террористам и экстремистам даже не потребуется производить собственных боевых роботов. Достаточно будет приобрести предлагаемый коммерческим пользователям высокавтономный универсальный робот и внести в него определенные конструкционные и программные доработки.

Кроме того, в настоящее время сложные универсальные робототехнические системы, находящиеся на вооружении армии США без труда могут быть доведены до уровня полностью автоматизированных робототехнических систем, включая принятие решений и применение оружия. В условиях, когда даже традиционные террористические организации, не отличающиеся высоким техническим уровнем, такие как Талибан, имеют на своем счету несколько перехваченных и посаженных дронов, угроза захвата сложных систем становится весьма реальной. Более того, первые два подобных случая уже произошли. Иранским хакерам, представляющим КСИР, удалось перехватить управление и посадить на территории Ирана два самых совершенных универсальных боевых американских дрона, проводивших испытательные полеты вблизи иранской границы.

Приведенные примеры наглядно свидетельствуют, что даже не сверхпродвинутые преступные синдикаты, а традиционные террористы могут завладеть сложными робототехническими системами и, заплатив относительно небольшие деньги специалистам из развитых стран, превратить захваченные аппараты в полноценных роботов-убийц.

В 2013-2014 гг. в различных странах мира, прежде всего, в Соединенных Штатах и Израиле, были проведены исследования на основе информации датчиков дронов, которые участвовали в испытательных боях. Для этих боев дроны, управляемые человеком, были предоставлены вооруженными силами США, а ЦХАКАЛ предоставил впервые в мире поступившие на вооружение в армию полноценные дроны-убийцы. В 2014 г. израильская армия первой из всех армий мира начала получать воздушные и наземные дроны, которые применяют боевые поражающие, в том числе летальные, средства не по решению человека, а в соответствии с показаниями программно-аппаратного блока. В результате учебных боев израильские роботы-убийцы в 19 из 20 схваток сбили американские дроны. В одной схватке робот ЦХАКАЛ упал вследствие собственных технических нарушений.

1 ... 26 27 28 29 30 31 32 33 34 ... 53
Перейти на страницу:

Комментарии
Минимальная длина комментария - 25 символов.
Комментариев еще нет. Будьте первым.
Правообладателям Политика конфиденциальности