Технології

Росія та Китай можуть розвивати ШІ для поширення пропаганди: як цьому завадити

Учені вважають, що ШІ не має бути надто розумним, і пропонують контролювати нейромережі за допомогою чипів.

Група дослідників із OpenAI, Стенфордського та Джорджтаунського університетів вважають, що великі мовні моделі, як ChatGPT, можна використовувати для дезінформації в соцмережах і не тільки.

Відповідно до звіту вчених, генеративні мовні моделі сьогодні доступні всім і кожному, а тому дослідники побоюються, що такі інструменти, якщо опиняться в руках пропагандистів, ризикують стати інструментом операцій упливу в майбутньому, пише vice. com.

На думку вчених, пропагандисти зможуть вдатися до дешевших і ефективніших тактик завдяки ШІ-інструментам.

Більше не потрібно буде оплачувати роботу армії тролів, адже за допомогою нейромереж можна буде генерувати переконливі тексти у великих кількостях, розсилати їх у соцмережах, просувати через ЗМІ в інтернеті.

Попри те, що мовні моделі контролюються через API, у таких держав, як Китай і Росія, вистачить грошей, щоб інвестувати у власні розробки. Окрім постів, пропагандисти зможуть задіяти й власних чат-ботів.

У своєму звіті вони згадують про те, як чат-бот допоміг уплинути на людей, щоб вони вакцинувалися в розпал пандемії COVID-19.

Дослідники вважають, що урядам необхідно запровадити обмеження на збирання нейромережами навчальних даних і створити інструменти контролю доступу до обладнання ШІ, такого як напівпровідники. Як приклад наводять обмеження експортного контролю, введені США проти Китаю.

Не маючи доступу до деякого обладнання й технологій, КНР не зможе створювати мікросхеми останнього покоління, що значно уповільнить цю країну в її спробах "прокачати" нейромережі.

Учені пропонують обмежити доступ до майбутніх ШІ-моделей, підвищити їхній рівень безпеки, щоб уникнути зломів і атак.

Щодо контенту, дослідники пропонують, щоб платформи координували свої дії з постачальниками ШІ для виявлення контенту, написаного ШІ, і вимагали, щоб весь контент був написаний людьми.