Технології

Ядерна зброя стане ще небезпечнішою, якщо нею керуватиме ШІ: гарантій безпеки немає

Швидкість, з якою можуть працювати нейромережі, створює ризик занадто швидкої ескалації ядерних конфліктів — люди можуть просто не встигнути втрутитися. Згідно із загальноприйнятою думкою, штучний інтелект (ШІ) впроваджується повсюдно.

Доступні чат-боти, які малюють за підказками нейромережі, смартфони і телевізори з ШІ-чипами. Зміни стосуються не тільки споживчої техніки, а й військової. Сьогодні можливості ШІ використовують для оновлення старої і вельми небезпечної технології — ядерної зброї (ЯЗ).

Наскільки небезпечне ЯЗ під управлінням нейромереж, з'ясував Фокус.

У своїй статті для Мedium Кен Бріггс, інженер і популяризатор науки, пише, що алгоритми ШІ можуть радикально підвищити ефективність ядерних ударів і їхню точність, тим самим звівши до мінімуму побічну шкоду, особливо що стосується тактичної ядерної зброї.

Роль ШІ в проєктуванні та моделюванні боєголовок не менш революційна. Складні моделі машинного навчання можуть з високою точністю моделювати ядерні вибухи, надаючи безцінну інформацію про наслідки ядерних вибухів.

Ці знання мають вирішальне значення при оптимізації конструкцій боєголовок. Крім того, ШІ-системи можуть аналізувати екологічні та географічні дані, щоб рекомендувати оптимальні цілі з урахуванням різних стратегічних факторів.

Видання Vice США цитує Едварда Гейста, дослідника-політолога з корпорації RAND і автора книжки "Стримування в умовах невизначеності: штучний інтелект і ядерна війна", який вважає, що ШІ — ще недостатньо добре вивчена технологія, а її взаємодія з давно створеною ядерною зброєю потребує окремої уваги.

"Між ядерною зброєю та штучним інтелектом часто проводять паралель, наголошуючи на небезпеці обох технологій.

На жаль, обидві ці теми змушують навіть розумних людей фантазувати, навіть тих, які мають безпосередній досвід роботи хоча б з однією з технологій", — резюмував Гейст.

"Інтеграція ШІ з системами ядерної зброї викликає серйозні етичні питання і вимагає ретельного управління для пом'якшення потенційно негативних наслідків", — вважає Кен Бріггс.

Одним із найбільш спірних питань інтеграції нейромереж і ЯЗ, на думку Бріггса, є делегування ухвалення рішень системам штучного інтелекту, особливо в сценаріях, пов'язаних із застосуванням ядерної зброї.

"Перспектива того, що машини ухвалюватимуть рішення про життя і смерть, порушує фундаментальні моральні питання і побоювання з приводу потенційної відсутності підзвітності та прозорості.

Швидкість, з якою можуть працювати нейромережі, також створює ризик занадто швидкої ескалації конфліктів — люди просто можуть не встигнути втрутитися", — ідеться в матеріалі.

Інтеграція ШІ в системи ядерної зброї також може призвести до значних змін у глобальній динаміці сил. Країни, які досягають успіху в ШІ-технологіях, можуть узяти гору, потенційно спровокувавши нову гонку озброєнь, орієнтовану на нейромережі та кіберможливості.

Ці перегони можуть посилити глобальну напруженість і призвести до посилення нестабільності, особливо в регіонах, де існує ядерне суперництво.

Ба більше, дедалі більшу стурбованість викликає ризик кібератак на системи ядерного управління та контролю, доповнені штучним інтелектом, підкреслює Кен.

Уразливість цих систем до злому або збоїв може призвести до випадкових запусків або несанкціонованого використання ЯЗ, додаючи ще більше ризику для глобальної безпеки.

"Оскільки ШІ продовжує розвиватися, вкрай важливо, щоб міжнародні правила, етичні рекомендації та надійні заходи кібербезпеки здійснювали паралельно з його розвитком для пом'якшення перерахованих вище ризиків.

Майбутнє ядерної війни та оборони, яке зараз нерозривно пов'язане зі ШІ, необхідно розглядати з обережністю, гарантуючи, що ці потужні технології слугуватимуть зміцненню глобальної безпеки, а не підриватимуть її", — резюмував автор.