Група дослідників із OpenAI, Стенфордського та Джорджтаунського університетів вважають, що великі мовні моделі, як ChatGPT, можна використовувати для дезінформації в соцмережах і не тільки.
Відповідно до звіту вчених, генеративні мовні моделі сьогодні доступні всім і кожному, а тому дослідники побоюються, що такі інструменти, якщо опиняться в руках пропагандистів, ризикують стати інструментом операцій упливу в майбутньому, пише vice. com.
На думку вчених, пропагандисти зможуть вдатися до дешевших і ефективніших тактик завдяки ШІ-інструментам.
Більше не потрібно буде оплачувати роботу армії тролів, адже за допомогою нейромереж можна буде генерувати переконливі тексти у великих кількостях, розсилати їх у соцмережах, просувати через ЗМІ в інтернеті.
Попри те, що мовні моделі контролюються через API, у таких держав, як Китай і Росія, вистачить грошей, щоб інвестувати у власні розробки. Окрім постів, пропагандисти зможуть задіяти й власних чат-ботів.
У своєму звіті вони згадують про те, як чат-бот допоміг уплинути на людей, щоб вони вакцинувалися в розпал пандемії COVID-19.
Дослідники вважають, що урядам необхідно запровадити обмеження на збирання нейромережами навчальних даних і створити інструменти контролю доступу до обладнання ШІ, такого як напівпровідники. Як приклад наводять обмеження експортного контролю, введені США проти Китаю.
Не маючи доступу до деякого обладнання й технологій, КНР не зможе створювати мікросхеми останнього покоління, що значно уповільнить цю країну в її спробах "прокачати" нейромережі.
Учені пропонують обмежити доступ до майбутніх ШІ-моделей, підвищити їхній рівень безпеки, щоб уникнути зломів і атак.
Щодо контенту, дослідники пропонують, щоб платформи координували свої дії з постачальниками ШІ для виявлення контенту, написаного ШІ, і вимагали, щоб весь контент був написаний людьми.
Всі права захищені IN-Ukraine.info - 2022