AI Act та оборонні системи: чи діє регламент для військових продуктів?

Фраза про те, що війну перемагає той, хто сильніший, давно втратила свою актуальність. Наразі попереду завжди той, у кого більше інформації і хто вміє застосувати цю інформацію в своїх інтересах. 

Саме ШІ-системи надали можливість аналізу, зберігання і в потрібний момент застосування величезних обсягів інформації і такими чином вже почали трансформувати військовий сектор. До прикладу, ШІ-системи використовуються задля дистанційного управління повітряними дронами, навігації та виявлення військових та оборонних об’єктів на території іншої держави, аналізу розвідданих, побудові стратегій нападу тощо. 

І тут, беручи до уваги, високий рівень регульованості європейського простору постає питання: 

Чи вдалося європейським законодавцями охопити застосування ШІ-систем у військовій сфері ? 

Тут у стилі ChatGPT дуже хотілося б почати з однозначної відповіді на кшталт: “Ні, AI Act не поширюється на військові продукти і ось я зараз поясню чому”, але сфера застосування AI Act, особливо у зв’язку з військовими продуктами, настільки місцями неоднозначна, що надати чітку може бути доволі складно. 

Тож пропонуємо розібратися у тонкощах сфери застосування положень AI Act (далі – “Регламент”) до військових продуктів у цій статті.   

Загальне правило щодо ШІ-систем для військових продуктів передбачене AI Act

Стаття 2(3) AI Act встановлює правило, згідно з яким Регламент не застосовується до ШІ-систем, які розміщені на ринку, введені в експлуатацію або використовувані, виключно для військових, оборонних або цілей національної безпеки: 

Цей Регламент не застосовується до сфер, що виходять за межі сфери права Союзу, і в будь-якому випадку не впливає на компетенції держав-членів щодо національної безпеки, незалежно від типу суб’єкта, якому держави-члени доручили виконання завдань, пов’язаних із цими компетенціями.

Цей Регламент не застосовується до систем штучного інтелекту, якщо і настільки, наскільки вони розміщуються на ринку, вводяться в експлуатацію або використовуються, з модифікаціями чи без них, виключно для військових, оборонних або цілей національної безпеки, незалежно від типу суб’єкта, який здійснює таку діяльність.

Цей Регламент не застосовується до систем штучного інтелекту, які не розміщуються на ринку або не вводяться в експлуатацію в Союзі, якщо їхній результат використовується в Союзі виключно для військових, оборонних або цілей національної безпеки, незалежно від типу суб’єкта, який здійснює таку діяльність.

Загальне правило щодо ШІ-систем для військових продуктів передбачене AI Act

З положення випливає, що Регламент ​​чітко визначає випадки, коли він не діє. У цьому контексті можна виділити кілька важливих аспектів.

По-перше, стаття 2(3) AI Act встановлює, що дія Регламенту не поширюється на діяльність, яка знаходиться поза межами права ЄС. Такий підхід в цілому відповідає іншим актам ЄС у суміжних сферах, зокрема щодо електронних комунікацій та регулювання персональних і неперсональних даних. 

По-друге, в Регламенті окремо підкреслюється, що ці винятки щодо військових цілей, нацбезпеки та оборони застосовуються незалежно від того, який саме суб’єкт виконує відповідні завдання. Це означає, що значення має не те, хто саме використовує або розробляє систему, а те, з якою метою вона застосовується. Тому навіть у випадках, коли розробниками систем штучного інтелекту є приватні компанії і такі системи виконують завдання у сфері оборони чи національної безпеки в інтересах держав-членів, відповідні винятки все одно діють. 

По-третє, як випливає з Recital 24 Регламенту, яка деталізує положення даної статті, саме міжнародне право з урахуванням особливостей національного права держав-членів є належною правовою основою для регулювання систем штучного інтелекту у військовому контексті.

Наявність такого винятку передусім обумовлена тим, що за статтею 4(2) Договору про заснування Європейського співтовариства, питання національної безпеки віднесені до виключної компетенції держав-членів ЄС, і відповідно втручання ЄС в ці питання буде вважатися порушенням суверенітету таких країн. 

Про те, як дізнатися, чи точно ваша компанія підпадає під дію AI Act читайте тут: Комплаєнс з AI Act: покроковий гайд для бізнесу

Що робити з ШІ-системами подвійного призначення? 

Незважаючи на те, що у AI Act чітко передбачено, що його положення не застосовуються до систем штучного інтелекту, які використовуються для військових або національно-безпекових цілей, це не означає, що системи подвійного призначення автоматично повністю виходять за межі його регулювання. Якщо такі системи застосовуються у цивільній сфері, на них можуть поширюватися вимоги AI Act, навіть якщо ті самі технології одночасно або згодом використовуються для цілей національної безпеки. 

Тобто визначальним є для якої мети ШІ-систему застосовують у конкретній ситуації: 

ШІ-система Мета використання Чи підпадає під дію AI Act ? 
Розроблена для використання у військових та оборонних цілях, але в подальшому починає також використовуватися в цивільних, наприклад, гуманітарних, або правоохоронних ціляхПодвійне призначення Так, але тільки в частині використання у цивільній сфері. Військове використання не підпадає під дію Регламенту (Recital 24, речення 4 і 5) 
Розміщена на ринку, як така, що може використовуватися для оборонних та цивільних цілей одночасноПодвійне призначення Так, але тільки в частині використання у цивільній сфері. Військове використання виключено (Recital 24, речення 6 і 7)
Початково розроблена для цивільних або правоохоронних цілей, але використовується виключно у військових та оборонних ціляхВійськова, оборонна ціль або ціль національної безпекиНі, оскільки постачальник не зобов’язаний забезпечувати відповідність AI Act у випадку використання лише для військових цілей, цілей оборони або національної безпеки (Recital 24, речення 8)

Case study: Показовим прикладом використання ШІ-систем подвійного призначення є модель Claude, розроблена компанією Anthropic, яка спочатку створювалася як цивільна система загального призначення, але згодом почала застосовуватися у військових цілях. За повідомленнями ЗМІ, інструменти на базі Claude використовувалися американськими військовими для аналізу розвідувальних даних, визначення цілей і моделювання бойових сценаріїв під час операцій на Близькому Сході, зокрема проти Ірану, а також у низці інших спеціальних операцій. Водночас розробник моделі, а саме її генеральний директор Dario Amodei, свідомо встановив обмеження на військове використання системи, відмовившись знімати заборону на застосування ШІ для масового стеження за громадянами та для створення повністю автономної зброї через ризики помилок і недостатню надійність таких систем. При цьому законодавство США наразі не містить прямих заборон щодо подібного використання ШІ, що робить такі обмеження насамперед добровільною політикою компанії-розробника. Хоч цей кейс безпосередньо не пов’язаний із регулюванням AI Act, він демонструє важливість участі розробників у визначенні правил використання їхніх технологій, адже саме вони найкраще розуміють технічні особливості системи та потенційні ризики її застосування в різних, зокрема військових, сферах.

Що говорить Біла книга “Надійність штучного інтелекту в оборонному секторі” Європейського агентства з питань оборони ? 

У травні 2025 року Європейське агентство з питань оборони опублікувало Білу книгу “Надійність штучного інтелекту в оборонному секторі” (далі – “Біла книга”), у якій серед іншого розглядаються питання взаємозв’язків оборонної сфери із AI Act. 

З одного боку, Біла книга підтверджує, що AI Act формально не застосовується до систем штучного інтелекту, які розміщуються на ринку, вводяться в експлуатацію або використовуються виключно для військових, оборонних чи національно-безпечних цілей.

З іншого боку, Біла книга пропонує розглядати AI Act як орієнтир навіть для ШІ- систем, які мають виключно військові цілі застосування. Зокрема наголошується на тому, що ШІ-системи у військовій сфері все одно мають відповідати цінностям та нормам ЄС, закріпленим у статті 2 Договору про заснування Європейського Співтовариства, зокрема принципам верховенства права, підзвітності та людської гідності (пункт 3.2.3). 

Де-факто це означає застосування AI Act у військовій сфері як форми «м’якого права». 

До чого тут Суд справедливості ЄС? 

Суд справедливості ЄС неодноразово підтверджував, що посилання держав-членів на національну безпеку не виключає їхні дії повністю зі сфери дії права ЄС. Такий підхід було викладено у справах Sirdar v. The Army Board and Secretary of State for Defence , а також Kreil v. Bundesrepublik Deutschland. Логіка Суду справедливості ЄС полягає у тому, що хоч держава і може організовувати свої збройні сили на власний розсуд, однак це не означає повного виключення таких рішень із-під контролю ЄС. Суд справедливості ЄС правомочний перевіряти, чи справді заходи, вжиті національними органами в межах наданих їм повноважень, були спрямовані на забезпечення суспільної безпеки та чи відповідали вони принципам необхідності й пропорційності.

Водночас Суд справедливості ЄС все ж визнає за державами широкий простір для самостійного регулювання у сферах оборони та безпеки. Тобто право ЄС застосовується лише тоді, коли конкретний захід зачіпає матерію, вже врегульовану на рівні ЄС, наприклад, рівне ставлення, трудові права чи захист даних. Якщо ж ідеться про сфери, де право ЄС не встановлює жодних норм, як-от вибір моделі військової організації, держави зберігають повний суверенітет.

Стосовно ШІ-систем у військовій сфері ця логіка означає, що Суд справедливості ЄС навряд чи погодиться з тим, що будь-яке використання ШІ у цих секторах є автоматично виключеним з-під його юрисдикції. Такі застосування ШІ як  управління персоналом, логістика, аналіз загроз, можуть підпадати під перевірку, якщо зачіпають сфери, врегульовані правом ЄС. 

То що ж далі ?

Країни-члени ЄС, а також держави-члени НАТО вже здійснюють перші спроби розробити хоча б мінімальні рамки для застосування штучного інтелекту у військовій сфері. Зокрема, такі підходи відображені у NATO AI Strategy, French National Strategy for AI та German AI Strategy. Водночас незважаючи на те, що однією з ключових цілей AI Act є запобігання потенційно шкідливим наслідкам використання систем ШІ, Регламент базуючись на принципі поваги до державного суверенітету інших держав, свідомо виключає з сфери застосування ШІ-системи, які призначені для військового застосування.  

Проте сучасна геополітична ситуація ставить під сумнів безумовність такого підходу: світ дедалі більше повертається до епохи нарощування озброєнь, що стимулює пошук нових, дешевших і технологічно ефективних військових рішень, серед яких важливе або ледь не центральне місце вже посідає штучний інтелект. 

І тут замість висновку дамо вам трохи їжі для роздумів: Чи переважає державний суверенітет окремих держав, коли ціна помилки або неконтрольованих експериментів із ШІ технологіями може мати настільки глобальні та незворотні наслідки ?

Є запитання до юристів?
до 500 символів
Сталася помилка
Запит надіслано Дякуємо за ваше повідомлення! Ми обробимо його якнайшвидше.

Статті по темі

Перейти до блогу