Читать книгу "Роботы-убийцы против человечества. Киберапокалипсис сегодня - Елена Ларина"
Шрифт:
Интервал:
Закладка:
Международные суды, вооруженные силы, например, приняли «стандарт разумного военачальника». Международный военный трибунал для бывшей Югославии, например, писал: «В определении, было ли применение оружия пропорционально, необходимо исследовать, может ли в сложившейся ситуации человек в условиях, когда вокруг совершаются массовые преступления, ожидать, что чрезмерные жертвы среди гражданского населения будут результатом применения оружия по его приказу». Тест на пропорциональность требует больше, чем балансирование количественных данных. И робот не может быть запрограммирован так, чтобы дублировать психологические процессы при принятии человеком решения (которые необходимы, чтобы оценить пропорциональность применения оружия).
Приведем примеры.
Сценарий, в котором полностью автономный самолет идентифицирует появившуюся важную цель (например, лидера бандформирования), иллюстрирует трудности, с которыми такие роботы могут столкнуться при применении теста пропорциональности. Самолет может правильно определить местонахождение вражеского лидера в населенном районе, но он должен будет оценить, будет ли законно стрелять в него. Во-первых, если такая цель находится в городе, то ситуация вокруг нее постоянно меняется. Например, школьный автобус может внезапно оказаться на линии прицеливания. Во-вторых, самолет должен взвесить ожидаемые преимущества уничтожения лидера против числа гражданских лиц, которые, как он ожидает, будут убиты. Каждый лидер может иметь различную ценность, и его ценность может изменяться в зависимости от ситуации в конфликте. Кроме того, люди лучше подходят для того, чтобы делать такие оценочные суждения.
3.1.3. Проблемы военной необходимости
Как и пропорциональность, военная необходимость требует субъективного анализа ситуации. Это позволяет вооруженным силам планировать военные действия, принимать во внимание практические требования военной ситуации в любой данный момент времени. Но военная необходимость ограничивается требованием «человечности». Один ученый описал военную необходимость как «контекстно-зависимое, основанное на ценности суждение командующего (в пределах определенных ограничений достоверности)». Идентификация, стал ли вражеский солдат «вне боя» (по-французски hors de combat), т. е. не способный или не желающий оказать сопротивление, требует человеческой оценки. В частности, полностью автономному роботу-часовому будет трудно принять решение – стрелять ли еще в упавшего нарушителя границы (в которого робот уже стрелял)?
3.1.4. Проблема отсутствия человеческих эмоций
Еще более серьезная проблема состоит в том, что полностью автономное оружие не обладает человеческими эмоциями (необходимыми для оценки намерений человека), которые являются ключевыми для различения цели. Если невозможно предположить, что все люди вокруг являются противниками (т. е. целями), тогда необходимо выяснить, кто противник, а кто нет. Один из способов определить, является ли человек противником, состоит в том, чтобы понять эмоциональное состояние человека. Но бывает огромное число обстоятельств, где применять оружие нет необходимости. Например, напуганная мать может бежать за своими двумя детьми и кричать на них, чтобы те прекратили играть с игрушечными пистолетами около (человека) солдата. Солдат может распознать страх матери, детскую игру и признать намерения детей безопасными. А полностью автономное оружие увидело бы, что к нему бегут два вооруженных человека и открыло бы по ним огонь.
Сторонники полностью автономного оружия предполагают, что отсутствие человеческих эмоций – главное его преимущество. Но они не рассматривают побочные эффекты применения такого оружия. Сторонники подчеркивают, например, что роботы неуязвимы для эмоциональных факторов, таких как страх и гнев, которые могут «омрачить» рассудок и привести к атаке на гражданских лиц. Они также считают, что роботы могут быть запрограммированы так, чтобы действовать без страха за собственную «жизнь», и поэтому могут пожертвовать собой.
Человеческие эмоции, однако, обеспечивают одну из лучших гарантий защиты против убийства гражданских лиц. И отсутствие эмоций может сделать убийство более легким. При обучении солдат (чтобы им было психологически проще уничтожать живую силу противника) им часто пытаются привить «психологию робота», когда то, что иначе казалось бы ужасным действием, может быть хладнокровно выполнено. Этот процесс уменьшения эмоциональной чувствительности может быть необходим, чтобы помочь солдатам выполнять боевые операции и справиться с ужасами войны. Но безотносительно военной подготовки солдаты сохраняют способность своей эмоциональной идентификации с гражданскими лицами. Это важная часть сочувствия, которое является главной в сострадании.
Роботы не могут идентифицировать себя с людьми, т. е. они неспособны испытывать сострадание (сильную проверку на готовность убить). Например, робот в зоне боевых действий мог бы выстрелить в ребенка, направляющего на него оружие. В отличие от робота, солдат-человек мог бы вспомнить своих детей, задержать открытие огня и найти более милосердное решение этой ситуации. Одно из самых больших ограничений для проявления жестокости во время войны всегда было естественное желание большинства людей не убивать. Этот естественный запрет так силен, что многие умерли бы сами, чем убили бы кого-то. Снятие этого запрета на убийство при помощи использования роботов устранило бы самое сильное психологическое и этическое ограничение на применение оружия во время войны. Война стала бы негуманно эффективной и не была бы ограничена естественным желанием солдат не убивать.
С другой стороны, полностью автономное оружие может стать прекрасным инструментом репрессии для диктаторов, стремящихся сохранить власть. Даже наиболее преданные диктатору войска могут, в конечном счете, повернуть против него свое оружие, если диктатор отдаст приказ стрелять в собственный народ. Диктатор, который обратился к помощи полностью автономного оружия, не будет бояться, что его вооруженные силы взбунтуются. Роботы не идентифицируют себя с их жертвами и будут выполнять приказ независимо от того, насколько негуманный он был.
3.1.5. Проблема ответственности за убийство полностью автономным оружием Учитывая, какие проблемы полностью автономного оружия создает международному гуманитарному праву и как оно игнорирует психологические основы гуманитарной защиты, неизбежно, что оно когда-нибудь убьет или ранит множество беззащитных гражданских лиц. Когда появляются многочисленные жертвы среди гражданского населения в вооруженном столкновении, люди хотят знать, кто за это должен нести ответственность. Если бы убийство было совершено полностью автономным оружием, встал бы вопрос: кого считать за это ответственным? Варианты ответов включают военачальника, программиста, изготовителя полностью автономного оружия и даже самого робота. Однако ни один из этих вариантов не является удовлетворительным. Поскольку нет никакого справедливого и эффективного способа назначить юридическую ответственность за противоправные действия, переданные полностью автономному оружию, подрывается еще один инструмент защиты гражданских лиц во время вооруженных конфликтов.
Первый способ решения проблемы может состоять в том, чтобы сделать военных начальников, которые используют такое оружие, ответственными за его действия на поле боя. Однако считается, что солдаты – достаточно автономные существа. И их командиры не несут юридической ответственности за противоправные действия своих подчиненных (за исключением очень особых обстоятельств). Поэтому было бы несправедливым возложить всю ответственность на военачальника за действия полностью автономного оружия. И, наверное, несправедливо считать людей ответственными за действия машин, над которыми они не имеют контроля. В некоторых ситуациях (принцип несения «ответственности за команду») военачальник может считаться ответственным за военные преступления, совершенные подчиненным. Этот принцип применяется, если военачальник знал (или должен был знать), что его подчиненный запланировал совершить преступление. И военачальник не принял меры, чтобы предотвратить преступление или не наказывал преступника после совершения преступления.
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Роботы-убийцы против человечества. Киберапокалипсис сегодня - Елена Ларина», после закрытия браузера.