"Можуть раптово спалахнути": Росія використала ШІ від OpenAI проти України, — FT
Структури, пов'язані з Росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту компанії OpenAI, яка створила чат-бот ChatGPT, для створення і поширення дезінформації, зокрема про війну в Україні. Про це пише Financial Times.
Як зазначають у компанії, моделі штучного інтелекту OpenAI для генерації тексту та зображень були використані у великих обсягах у п'яти операціях прихованого впливу та для створення коментарів.
Згаданий контент стосувався війни в Україні, конфлікту в Секторі Газа, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема налагодження коду та дослідження активності в соціальних мережах.
Згідно зі звітом OpenAI, інструменти компанії використовувалися, зокрема, в операції Росії "Доппельгангер", спрямованій на підрив підтримки України. Також згадується російська операція "Погана граматика".
За даними компанії, зловмисники використовували моделі OpenAI для налагодження коду для запуску бота Telegram, а також для створення коротких коментарів на політичні теми російською та англійською мовами для поширення в Telegram.
Крім того, за даними видання, інструменти ШІ від OpenAI використовувала китайська мережа "Спамуфляж", яка просуває інтереси Пекіна за кордон. Йдеться про створення тексту і коментарів на декількох для публікації в соціальній мережі X.
Також повідомляється про запобігання кампанії Ізраїлю, імовірно, організованої компанією STOIC, яка використовувала ШІ для створення статей і коментарів в Instagram, Facebook і X. Політика OpenAI забороняє використання її моделей для обману або введення в оману інших.
У компанії заявили, що працюють над виявленням кампаній з дезінформації, а також створюють інструменти на базі ШІ, щоб робити це ефективніше.
Представники OpenAI запевняють, що вже ускладнили роботу зловмисників і їхні моделі не раз відмовлялися генерувати запитаний контент.
Головний дослідник відділу розвідки і розслідувань OpenAI Бен Німмо в розмові з журналістами заявив, що використання моделей OpenAI в кампаніях "незначно" зросло. "Зараз не час для самозаспокоєння.
Історія показує, що операції впливу, які роками не приносили результатів, можуть раптово спалахнути, якщо їх ніхто не шукає", — наголосив Бен Німмо.
Нагадаємо, компанія OpenAI протестувала свою систему штучного інтелекту GPT-4, щоб зрозуміти, чи представляє він будь-які загрози для людства. Фахівці виявили "невеликий ризик", що він допоможе людям створити смертоносну біологічну зброю.
Також повідомлялося, що компанія OpenAI оголосила про партнерство з медіаконгломератом Axel Springer.