Удар Трампа по Ірану та новий тип війн із штучним інтелектом означають, що бомби можуть падати швидше за швидкість думки

Штучний інтелект увійшов у командний центр війни, і, за словами експертів, він не збирається йти звідси найближчим часом.

Рекомендоване відео


Незважаючи на те, що президент Дональд Трамп наказав федеральним агентствам і військовим підрядникам припинити співпрацю з Anthropic, у Збройних силах США, за повідомленнями, використовували модель штучного інтелекту компанії Claude у своїй атаці на Іран, повідомляє The Wall Street Journal.

Зараз деякі експерти висловлюють занепокоєння щодо використання ШІ у військових операціях. «Машина ШІ робить рекомендації щодо цілей, що насправді є набагато швидше за швидкість мислення», — сказав доктор Крэйг Джонс, автор книги The War Lawyers: U.S., Israel and the Spaces of Targeting, яка досліджує роль військових юристів у сучасній війні, у газеті The Guardian.

У розмові з Fortune Джонс, викладач Ньюкаслського університету з питань війни та конфліктів, зазначив, що ШІ значно прискорив «ланцюг убивств», скоротивши час від початкового визначення цілі до її остаточного знищення. Він припустив, що удари США та Ізраїлю по Ірану, які призвели до смерті аятолли Алі Хаменеї, можливо, не відбулися б без ШІ.

«Це було б неможливо або майже неможливо зробити таким чином», — сказав Джонс у інтерв’ю Fortune. «Швидкість виконання, масштаб і обсяг ударів, я вважаю, є можливими завдяки ШІ».

Пентагон залучив допомогу компаній, що займаються ШІ, щоб прискорити та покращити військове планування, уклавши партнерство з Anthropic у 2024 році, яке минулого тижня зруйнувалося через розбіжності щодо використання моделі ШІ компанії Claude. Але OpenAI швидко уклала угоду з Пентагоном, а компанія Elon Musk — xAI — досягла угоди щодо використання їхньої моделі ШІ, Grok, у секретних системах. Також армія США використовує програмне забезпечення компанії Palantir для отримання аналітичних даних із застосуванням ШІ для прийняття рішень.

ШІ на полі бою

Джонс зазначив, що ВПС США вже роками використовують «швидкість мислення» як орієнтир для швидкості прийняття рішень. За його словами, час від збору розвідки, наприклад, аеророзвідки, до виконання бомбардування міг сягати до шести місяців під час Другої світової війни та В’єтнамської війни. ШІ значно скоротив цей час.

Ключова роль інструментів ШІ у командному центрі — швидкий аналіз величезних обсягів даних. «Ми говоримо про терабайти, терабайти, терабайти даних», — сказав Джонс, — «від аерофотознімків, людської розвідки, інтернет-розвідки, мобільного телефонного слідкування, все і вся».

Доктор Амір Хусейн, співавтор книги Hyperwar: Conflict and Competition in the AI Century, зазначив, що ШІ використовується для скорочення рамок ухвалення рішень у військових структурах США, відомих як цикл OODA — спостереження, орієнтація, рішення, дія. Він сказав, що ШІ вже відіграє важливу роль у спостереженні, інтерпретації супутникових та електронних даних, тактичному рівні ухвалення рішень і фазі «дії», зокрема через автономні дрони, які повинні діяти без людського керівництва, коли сигнали заважають. Деякі з цих дронів є копіями іранських автономних дронів Shahed.

ШІ також з’явився на інших полях битви. Ізраїль, за повідомленнями, використовував ШІ для ідентифікації цілей Хамас під час війни між Ізраїлем і Хамасом. А автономні дрони перебувають на передовій у війні Росії та України, причому обидві сторони застосовують різні варіанти автономних технологій.

Зростання ризиків

Однак Джонс висловив кілька занепокоєнь щодо війни з використанням ШІ. «Проблема, коли додаєш ШІ, — це те, що ти множиш, я б сказав, у багато разів, ступінь помилок», — сказав він.

Звичайно, людські помилки існують і без ШІ, наголосив Джонс, посилаючись на вторгнення США в Ірак у 2003 році, яке базувалося на помилковій розвідці. Але він вважає, що ШІ може погіршити такі помилки через обсяг даних, які аналізує технологія.

Також виникає низка етичних питань щодо війни з використанням ШІ, головним чином щодо відповідальності, що вже вимагає Женевська конвенція та закони про озброєний конфлікт. Оскільки ШІ розмиває межі між машинним і людським ухваленням рішень, міжнародна спільнота має забезпечити, щоб відповідальність за всі дії на полі бою покладалася на людину.

«Закони про озброєний конфлікт вимагають, щоб ми звинувачували людину», — сказав Хусейн. «Людина має бути відповідальною незалежно від рівня автоматизації на полі бою».

Приєднуйтесь до нас на Форумі інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у сфері праці вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході найінноваційніші лідери світу зберуться, щоб дослідити, як ШІ, людство і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.

XAI4,64%
GROK7,46%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити