Ответственность за военные преступления, совершаемые с использованием непрямых средств: от бактериологического оружия до автономных систем вооружения, основанных на искусственном интеллекте

В отличие от Нюрнбергского процесса, Международного военного трибунала для Дальнего Востока (Токийский процесс) и даже советских открытых процессов над нацистскими преступниками, Хабаровский процесс не так известен в мире. Даже экспертное сообщество в области международного гуманитарного права (МГП) в основном не знакомо с фактами и преступлениями, рассмотренными Хабаровским процессом, его позициями и правовыми принципами. Хабаровский процесс даже не упоминается ни в монументальном четырехтомном исследовании Международного Комитета Красного Креста (МККК) Правовая защита во время войны[1], ни в другом ведущем исследовании МККК Обычное международное гуманитарное право[2].

Эта ситуация представляет собой парадокс, поскольку Хабаровский процес внес большой вклад в формирование общего разработки и применения бактериологического оружия, как на уровне обычного международного права, так и на конвенционном уровне. Вопрос о бактериологическом оружии не рассматривался ни Нюрнбергским трибуналом, ни Дальневосточным трибуналом. Но, несмотря на это, оружие такого типа, как бактериологическое и биологическое, в настоящее время общепризнано неприемлемым и запрещенным. МККК признает этот запрет в качестве обычной нормы МГП (норма 73)[3]. Это означает, что данная норма представляет собой практику государств (usus), подкрепленную всеобщим признанием ее юридической силы (opinion juris). Хабаровский процесс был практически неизвестен за рубежом в течение многих лет и сам по себе не мог повлиять на становление opinio juris этой нормы, однако четко выразил общую правовую тенденцию в этой области.

В зарубежной юридической литературе общий запрет бактериологического и биологического оружия обычно выводится из Протокола о запрещении применения удушливых, ядовитых или других подобных газов и бактериологических средств ведения войны (Женевский протокол 1925 года)[4]. Следует, однако, уточнить, что Женевский протокол зафиксировал, что применение на войне удушливых, ядовитых или других газов, а также всех аналогичных жидкостей, материалов или устройств справедливо осуждено общим мнением цивилизованного мира, и что запрет на такое применение объявлен в договорах, участниками которых является большинство держав мира. Это означает, что государства совершенно ясно признали, что такие средства войны уже были незаконными к 1925 году. И намерение сторон протокола состояло в том, чтобы этот запрет был общепризнан как часть международного права, обязательная как для правосознания, так и для практики народов.

С течением времени развиваются технологии, а вместе с ними и оружие. Средства ведения войны радикально менялись на протяжении последних столетий. Но суть и общий смысл законов и обычаев войны остается прежним. Он отражает наиболее разумный и быстрый подход к достижению победы и доведению конфликта до конца. И его лучшее и наиболее четкое определение содержится в тексте Декларации об отказе от применения во время войны взрывчатых снарядов весом менее 400 граммов (Санкт-Петербургская декларация 1868 года)[5]: единственная законная цель, которую должны иметь государства во время войны, состоит в ослаблении военных сил неприятеля. &hellip, для достижения этой цели достаточно выводить из строя наибольшее по возможности число людей. &hellip, употребление такого оружия, которое по нанесении противнику раны без пользы увеличивает страдания людей, выведенных из строя, или делает смерть их неизбежною, должно признавать не соответствующим упомянутой цели. &hellip, употребление подобного оружия было бы противно законам человеколюбия. Сегодня это действительно фундаментальный и краеугольный принцип МГП наряду с оговоркой Мартенса. И оба этих принципа являются не просто моральными или политическими декларациями, а правовыми нормами прямого действия[6]. Эти принципы перспективно адресованы всем новым видам оружия, которые были изобретены с момента установления этих принципов и будут изобретены в будущем. Все виды средств ведения войны, выходящие за пределы законных целей военных действий, являются незаконными.

В этом контексте представляется разумным согласиться с Робертом Спэрроу (Robert Sparrow) в том, что Это должны иметь в виду и те, кто устанавливает правовые нормы, и те, кто ими руководствуется. Оговорка Мартенса, включенная в несколько важнейших договоров международного гуманитарного права (МГП), может быть в этом отношении очень полезной. Сегодня многие обеспокоены тем, что в условиях быстрого развития новых военных технологий, в том числе роботизированных и автономных систем вооружений, МГП может оказаться неспособно эффективно их регулировать. В связи с этим, сегодня было бы очень полезно обсудить оговорку Мартенса и соотношение морали и права в целом[7].

Указ Президиума Верховного Совета СССР от 19 апреля 1943 г., на основании которого проводились открытые процессы над военными преступниками, в т.ч. Хабаровский процесс, не установил новых составов преступлений, а лишь определил порядок судопроизводства и меру ответственности за те деяния, которые уже являлись преступными в силу существующих законов и обычаев войны. Данный Указ, таким образом, можно считать общей имплементацией в национальное право законов и обычаев войны, включая принципы Санкт-Петербургской Декларации 1868 г. и оговорку Мартенса.

Хабаровский процесс стал первым в мире процессом, рассматривавшим военные преступления, совершенные с применением бактериологического оружия. И суд не мог опираться на какую-либо предыдущую практику и конкретные законы. В этот момент закон не успевал за новыми технологиями. Но суд справился с этим вызовом, и военные преступники были признаны виновными и наказаны. Это стало возможным благодаря технологической независимости и прямой применимости основных законов и обычаев войны. Главным вкладом Хабаровского процесса в МГП стало то, что суд впервые столкнулся с неизвестной ранее технологией нового незаконного оружия и сумел установить ее незаконность.

Незаконность бактериологического оружия обусловлена следующими причинами:

1) Это оружие по своей природе является причиняющим излишние ранения или ненужные страдания (норма 70 по МККК)[8],

2) Это оружие по своей природе является неизбирательным (норма 71 по МККК)[9].

МККК объясняет, что Оружие, которое по своей природе является неизбирательным, – это оружие, которое не может быть направлено на военную цель или воздействие которого не может быть ограничено, как того требует международное гуманитарное право. Запрет такого оружия также подкрепляется общим запретом неизбирательных нападений (см. нормы 1112)[10].

Международный суд ООН в своем консультативном заключении по делу о ядерном оружии подтвердил, что этот запрет является одним из кардинальных принципов международного гуманитарного права[11].

МККК также отметил, что в ряде военных руководств и официальных заявлений упоминается оружие, которое имеет неизбирательное действие, поражает военные цели и гражданское население без разбора или не может отличить военные цели от гражданского населения[12]. Представляется, что все виды оружия, которые не находятся под непосредственным контролем человека и где человек не принимает конкретного решения атаковать какую-либо конкретную цель, не могут различать военные цели и гражданских лиц, и, следовательно, являются неизбирательными по совей природе.

Очевидно, что бактериологическое оружие является оружием такого рода, и Генеральная Ассамблея ООН в преамбуле к резолюции, принятой в 1969 году, заявила, что биологическое и химическое оружие по своей сути предосудительно, поскольку его последствия часто неконтролируемы и непредсказуемы[13]. В этих случаях человек делегирует принятие решения о конкретной цели для атаки какому-то химическому или физическому или другому типу процесса или алгоритму и теряет способность контролировать этот процесс и его последствия. Поскольку процесс или алгоритм не может нести ответственность за военные преступления, военные преступления совершают люди, которые его запустили и создали первое звено в цепи причинно-следственных связей.

Хабаровский процесс является ярким примером того, что преступность оружия чрезмерного и неизбирательного характера должна устанавливаться на основании общих и технологически нейтральных принципов МГП, а не конкретных запретов международных договоров. Общий запрет оружия чрезмерного и неизбирательного характера должен пониматься и толковаться широко, а сфера применения легальных средств ведения войны напротив – узко. Такая интерпретация крайне важна для создания прочной, четкой, доступной и предсказуемой правовой базы и предотвращения разрушительного воздействия новых видов оружия.

Петер Маурер, президент МККК, недавно отметил: Развитие цифровых технологий влияет и на то, как ведутся войны. Новые оружейные технологии порождают серьезные гуманитарные, правовые и этические дилеммы[14].

Особым вызовом для МГП в настоящее время является разработка и распространение так называемых автономных систем оружия, основанных на искусственном интеллекте.

МККК понимает этот термин автономные системы вооружений как оружие, которое выбирает цель и применяет против нее силу без участия человека. Они делают это на основе обобщенного профиля цели и показаний датчиков. От другого оружия они отличаются тем, что после того как их активирует человек, они наносят удар, получив стимул из окружающей среды, а не от оператора. Это значит, что оператор не выбирает конкретную цель[15].

Как и в случае с химическим, биологическим и бактериологическим оружием, человек делегирует принятие решений о конкретной цели для атаки алгоритму или искусственному интеллекту (ИИ).

Петер Маурер подчеркнул Существует явная опасность того, что контроль и учет мнения человека при принятии решений, от которых зависит жизнь и смерть людей, могут быть постепенно ослаблены до неприемлемого уровня[16]. И следует добавить, что эта ситуация в некоторых моментах выглядит так же, как и рассмотренная ситуация в области бактериологического оружия.

Следует ли рассматривать автономные системы оружия на основе ИИ в рамках существующей правовой базы МГП? Следует ли запретить разработку и использование полностью автономных систем оружия? Как должна быть установлена ответственность за военные преступления, совершенные с помощью автономных систем оружия на базе ИИ? Как следует доказывать вину и причинно-следственную связь?

Прежде всего, что такое ИИ?

Существует множество различных подходов к определению ИИ. Некоторые из них основаны на конкретных применимых технологиях. Но такой подход представляется слишком узким и, как и все технологически зависимые определения, склонным к устареванию в будущем. Поэтому технологически-нейтральный подход представляется более обоснованным.

Согласно технологически нейтральному определению, понятие ИИ относится к системам, которые демонстрируют разумное поведение, анализируя окружающую среду и предпринимая действия – с определенной степенью автономности – для достижения конкретных целей.

Системы на основе ИИ могут быть чисто программными, действующими в виртуальном мире (например, голосовые помощники, программы анализа изображений, поисковые системы, системы распознавания речи и лиц), или ИИ может быть встроен в аппаратные устройства (например, усовершенствованные роботы, автономные автомобили, беспилотники или приложения Интернета вещей).

Мы используем ИИ ежедневно, например, для перевода языков, создания субтитров в видео или блокировки спама в электронной почте[17].

В настоящее время, когда мы говорим об ИИ, в подавляющем большинстве случаев мы имеем в виду машинное обучение (machine learning, ML), в частности глубокое обучение (deep learning). По мнению Европейской комиссии, глубокое обучение стало переломным моментом в развитии ИИ и позволило значительно повысить производительность при решении конкретных задач, таких как распознавание изображений, речи или машинный перевод.

Обучение алгоритма глубокого обучения классификации объектов происходит путем воздействия на него большим количеством маркированных примеров данных (например, фотографий), которые правильно размечены и классифицированы (например, фотографии самолетов).

После обучения алгоритмы могут правильно классифицировать объекты, которые они никогда не видели, в некоторых случаях с точностью, превышающей человеческую.

Значительный прогресс в этих технологиях был достигнут благодаря использованию больших массивов данных и беспрецедентной вычислительной мощности[18].

МККК определяет системы искусственного интеллекта (ИИ) как компьютерные программы, выполняющие задачи – часто ассоциируемые с человеческим интеллектом – которые требуют познания, планирования, рассуждений или обучения. Он также определяет системы машинного обучения как системы ИИ, которые обучаются на данных и учатся на них, что в конечном итоге определяет способ их функционирования. Примером может служить система ML компании IBM, которая анализирует факторы миграции и использует данные для прогнозирования трансграничных перемещений и потоков беженцев[19].

Как подчеркнула Европейская комиссия, ИИ обладает потенциалом изменить наш мир к лучшему: он может улучшить здравоохранение, сократить потребление энергии, сделать автомобили более безопасными и позволить фермерам более эффективно использовать воду и природные ресурсы. ИИ может быть использован для прогнозирования изменений окружающей среды и климата, улучшения управления финансовыми рисками и предоставления инструментов для производства, с меньшим количеством отходов, продукции, адаптированной к нашим потребностям. ИИ также может помочь в обнаружении мошенничества и угроз кибербезопасности и позволяет правоохранительным органам более эффективно бороться с преступностью.

ИИ может принести пользу всему обществу и экономике. Это стратегическая технология, которая сейчас разрабатывается и используется быстрыми темпами во всем мире. Тем не менее, ИИ также несет с собой новые проблемы для будущего работы и поднимает юридические и этические вопросы[20].

С другой стороны, Петер Маурер отмечает: Рассмотрим, например, ситуации, когда в зоне военных действий оказывается большое число гражданских лиц. В случае применения автономного оружия: как защитить гражданских лиц, если оператор автономной системы вооружений точно не знает, где, когда и что он уничтожит?

Или представьте себе, что датчик автономной системы вооружений среагирует на гражданские автобусы, похожие на транспорт для перевозки военнослужащих, и она начнет наносить удары по всем автобусам на обширной территории, а оператор при этом не сможет вмешаться и деактивировать ее?

Кроме того, автономные системы вооружений повышают опасность эскалации конфликтов, например, когда нет времени или средств отключить автономную систему вооружений, пока не поздно.

МККК обеспокоен возможными гуманитарными последствиями их применения. Применение автономных систем вооружений значительно усложняет соблюдение международного гуманитарного права, нормы которого требуют от комбатантов принимать решения, исходя из сложившихся условий. Например, как щадить раненых солдат, если некому определить, что они выбыли из строя?

Кроме того, применение автономных систем вооружений поднимает вопросы, вызывающие серьезную озабоченность этического характера в том, что касается гуманности, фактически предоставляя датчикам, программам и машинам принимать вместо человека решения, от которых зависит жизнь и смерть людей[21].

Кажется очевидным, что, как и любая технология, ИИ может быть использован как законно, так и противоправно, но решающим моментом является человеческий контроль и надзор. Без такого контроля ИИ становится похожим на бактериологическое оружие, и никто не может сказать, кого алгоритм изберет своей целью.

Именно поэтому Группа экспертов высокого уровня по ИИ Европейского Союза представила Руководство по этике для заслуживающего доверия искусственного интеллекта, где человеческое управление и надзор были признаны первым ключевым требованием. Человеческое управление и надзор означает, что системы ИИ должны расширять возможности человека, позволяя ему принимать обоснованные решения и поощряя его основные права. В то же время необходимо обеспечить надлежащие механизмы надзора[22].

Европейская Комиссия в ее Стратегии для ИИ, Коммюнике, программных документах и проекте Регламента о европейском подходе для ИИ (Regulation on a European Approach for Artificial Intelligence (Artificial Intelligent Act))[23] следует этим рекомендациям.

Проект Artificial Intelligent Act представляет собой первый в мире проект всеобъемлющего специального закона об ИИ. Данный проект исходит из человеко-центричного регулирования ИИ и основан на риск-ориентированном подходе, определяя режим регулирования систем ИИ в зависимости от риска, который такая система может представлять для прав и свобод человека.

Аналогичным образом МККК предлагает установить требование обязательного взаимодействия между человеком и машиной, прежде всего, чтобы обеспечить действенный надзор со стороны человека, возможность его своевременного вмешательства и деактивации системы[24].

Таким образом, с нашей точки зрения, разработка и использование военных систем искусственного интеллекта, если такие системы могут быть охарактеризованы как непредсказуемые, полностью автономные и/или способные выйти из-под контроля, должны рассматриваться как военные преступления, аналогичные производству и применению биологического оружия. И то, и другое подпадает под одни и те же критерии незаконного оружия, запрещенного МГП. Соответственно, ответственность за такие преступления должна быть установлена аналогичным образом.

По аналогии с запрещенными видами оружия, представляется целесообразным установить на уровне национального законодательства и международных договоров всеобъемлющий (включающий любые системы как гражданского, так и военного назначения) запрет на разработку и эксплуатацию потенциально разрушительных систем ИИ, к числу которых относятся:

– полностью автономные системы, не контролируемые человеком, способные выйти из-под контроля, либо системы, работа которых не может быть прекращена человеком,

– системы, способные причинять вред человеку по собственной инициативе без авторизации человеком.

Представляется, что усилия в этом направлении, предпринимаемые МККК, а также различными европейскими структурами, включая структуры Совета Европы и Европейского Союза, заслуживают поддержки, а их инициативы и проекты могут быть использованы при разработке соответствующего национального законодательства.

Второй важный вывод заключается в следующем.

В настоящее время технологическое развитие происходит очень быстро, и в ближайшем будущем будет происходить еще быстрее. Праву становится все труднее угнаться за технологиями. Чтобы догнать технологии, право не должно использовать устаревшие подходы юридической техники, такие как казуистические описания конкретных ситуаций, ссылки на конкретные технологии и любые перечни конкретных видов оружия. Это особенно подчеркивает важность технологической нейтральности правовых норм, а также необходимость широко сформулированных положений, охватывающих все возможные ситуации и не зависящих от технологических изменений. Крайне важно избегать слишком узких и зависящих от технологий диспозиций правовых норм. Кроме того, прямое действие и применение общих принципов МГП в настоящее время становится важным, как никогда ранее. В этой связи, как и 70 лет назад, следует отметить особую актуальность Санкт-Петербургской декларации 1868 года, оговорки Мартенса и общей статьи 3 Женевских конвенций 1949 года.

[1] MARCO SASSOLI and ANTOINE A. BOUVIER in co-operation with Susan Carr, Lindsey Cameron and Thomas de Saint Maurice, HOW DOES LAW PROTECT IN WAR? Cases, Documents and Teaching Materials on Contemporary Practice in International Humanitarian Law, International Committee of the Red Cross, Geneva, Switzerland, second edition 2006, third edition 2011: https://www.icrc.org/en/document/how-does-law-protect-war-0

[2] Jean-Marie Henckaerts and Louise Doswald-Beck with contributions by Carolin Alvermann, Knut Dormann and Baptiste Rolle, CUSTOMARY INTERNATIONAL HUMANITARIAN LAW. VOLUME I RULES, International Committee of the Red Cross, Cambridge University Press, 2005, https://www.icrc.org/en/doc/assets/files/other/customary-international-humanitarian-law-i-icrc-eng.pdf

[3] Henckaerts J.-M., Doswald-Beck L. and others, Ibid, p. 256 258.

[4] Protocol for the Prohibition of the Use of Asphyxiating, Poisonous or Other Gases, and of Bacteriological Methods of Warfare. Geneva, 17 June 1925, https://www.un.org/disarmament/wmd/bio/1925-geneva-protocol/

[5] Declaration Renouncing the Use, in Time of War, of Explosive Projectiles Under 400 Grammes Weight, Saint Petersburg, 29 November / 11 December 1868, https://ihl-databases.icrc.org/ihl/full/declaration1868

[6] См., например, Роберт Спэрроу (Robert Sparrow), Мораль как источник права: оговорка Мартенса и автономные системы вооружений, https://www.icrc.org/ru/document/moral-kak-istochnik-prava-ogovorka-martensa-i-avtonomnye-sistemy-vooruzheniy

[7] Там же.

[8] Henckaerts J.-M., Doswald-Beck L. and others, Ibid, p. 237 244.

[9] Ibid, p. 244 250.

[10] Ibid, p. 244.

[11] ICJ, Nuclear Weapons case, Advisory Opinion ( 389), according to: Henckaerts J.-M., Doswald-Beck L. and others, Ibid, p. 246.

[12] Henckaerts J.-M., Doswald-Beck L. and others, Ibid, p. 247.

[13] UN General Assembly, Res. 2603 A (XXIV). Although three States voted against this resolution and 36 abstained, the disagreement was primarily in relation to herbicides and not the general principles, according to: Henckaerts J.-M., Doswald-Beck L. and others, Ibid, p. 248.

[14]Речь Петера Маурера, президента Международного Комитета Красного Креста, во время виртуального брифинга по позиция МККК в отношении автономных систем вооружений, 12 мая 2021 г., Женева, https://www.icrc.org/ru/document/peter-maurer-my-dolzhny-reshit-kakuyu-rol-my-otvedem-cheloveku-v-prinyatii-resheniy-ot

[15]Речь Петера Маурера, президента Международного Комитета Красного Креста, во время виртуального брифинга по позиция МККК в отношении автономных систем вооружений, 12 мая 2021 г., Женева, https://www.icrc.org/ru/document/peter-maurer-my-dolzhny-reshit-kakuyu-rol-my-otvedem-cheloveku-v-prinyatii-resheniy-ot

[16]Там же.

[17] Artificial Intelligence for Europe, Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of Regions, Brussels, 25.4.2018 COM(2018) 237, p. 2.

[18] Ibid, p. 11.

[19]https://blogs.icrc.org/law-and-policy/2021/08/19/artificial-intelligence-anticipatory-humanitarian/?utm_campaign=DP_ORE%20blog%3A%20The%20future%20is%20now%3A%20artificial%20intelligence%20and%20anticipatory%20humanitarian%20action&utm_medium=email&_hsmi=150846744&_hsenc=p2ANqtz-_XB-qUxAwm8bGnH8aVxqS5gs28tmeGriSQUl6x06ubJSh1KKNh2pCKTBkHnLq-EoDd1vBT0VE50pfUPXToQEawkoLhhRD9SzBVkviGI47SeM3PPRw&utm_content=150846744&utm_source=hs_email

[20] Building Trust in Human-Centric Artificial Intelligence, Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of Regions, Brussels, 08.4.2019 COM(2019) 168, p. 2.

[21]Речь Петера Маурера, президента Международного Комитета Красного Креста, во время виртуального брифинга по позиция МККК в отношении автономных систем вооружений, 12 мая 2021 г., Женева, https://www.icrc.org/ru/document/peter-maurer-my-dolzhny-reshit-kakuyu-rol-my-otvedem-cheloveku-v-prinyatii-resheniy-ot

[22] https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

[23] https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206

[24]Речь Петера Маурера, президента Международного Комитета Красного Креста, во время виртуального брифинга по позиция МККК в отношении автономных систем вооружений, 12 мая 2021 г., Женева, https://www.icrc.org/ru/document/peter-maurer-my-dolzhny-reshit-kakuyu-rol-my-otvedem-cheloveku-v-prinyatii-resheniy-ot

Межтекстовые Отзывы
Посмотреть все комментарии
guest