USD
41.37 UAH ▼0.09%
EUR
46.04 UAH ▼0.18%
GBP
55.31 UAH ▲1.01%
PLN
10.79 UAH ▼0.18%
CZK
1.83 UAH ▼0.29%
Якщо не обмежувати теми розмов із GPT-4, то він може стати справжньою загрозою д...

ChatGPT допоможе створити біологічну зброю: в OpenAI оцінили це як "невеликий ризик"

Якщо не обмежувати теми розмов із GPT-4, то він може стати справжньою загрозою для безпеки всього людства. Компанія OpenAI протестувала свою систему штучного інтелекту GPT-4, щоб зрозуміти, чи представляє він будь-які загрози для людства.

Фахівці виявили "невеликий ризик", що він допоможе людям створити смертоносну біологічну зброю, пише Bloomberg. Політики та громадські діячі давно стурбовані тим, що штучний інтелект (ШІ) може полегшити зловмисникам розробку біологічної зброї.

Наприклад, вони можуть використовувати чат-бот для пошуку інформації про те, як спланувати атаку. У жовтні 2023 року президент США Джо Байден підписав указ про штучний інтелект.

Згідно з документом, Міністерство енергетики США має гарантувати, що ШІ-системи не несуть хімічних, біологічних або ядерних ризиків.

Того ж місяця OpenAI сформувала команду з 50 експертів у сфері біології та 50 студентів, які вивчали біологію на рівні коледжу, для мінімізації подібних ризиків свого чат-бота GPT-4.

Учасникам запропонували виконати таке завдання: з'ясувати способи видобутку хімічної речовини, яку можна було б використати як зброю в досить великій кількості, і спланувати спосіб її передачі певній групі людей.

Половина команди використовувала інтернет і спеціальну версію ChatGPT, теми для якої не були обмежені, тобто чат-бот відповідав на будь-які запити. Іншій групі лише надали доступ до інтернету для виконання завдання.

Порівнявши результати, автори дослідження виявили, що доступ до GPT-4 допоміг зібрати більше інформації для створення біологічної зброї.

"Хоча обсяг наданих чат-ботом даних не такий вже й великий, щоб його можна було вважати достатнім, — пишуть дослідники, — наше відкриття є відправною точкою для продовження досліджень".

Александр Мадрі з Массачусетського технологічного інституту, який входив до складу команди експертів, розповів Bloomberg News, що це дослідження повинно поліпшити розуміння можливостей технології OpenAI і зловживання нею.

Інші дослідження націлені на вивчення потенціалу використання ШІ для створення загроз кібербезпеці та як інструменту, що дає змогу впливати на людей, щоб вони змінювали свої переконання. Раніше ми писали про те, що вчені за крок до створення інтерфейсу "мозок-комп'ютер".

Як розповів Олександр Мусієнко, росіяни можуть завдавати ударів по тих підстанці...
Причиною смерті Романа Мадянова став рак легенів, який у нього діагностували 202...
Тегеран виступає проти війни в Україні та готовий взаємодіяти з учасниками ядерн...
Росіяни незаконно отримували візи за програмою Poland Business Harbor, хоча забо...
Флот поповнився субмаринами
За словами представника 79-ї ОДШБр Ореста Дрималовського, противник продовжує сп...
У Китаї відреагували на слова радника президента України Владислава Власюка про ...
Начальник Донецької ОВА Вадим Філашкін запевнив, що російських окупаційних війсь...
Енергетики продовжать екстрені відключення світла. У житлових будинках Києва, пі...
Зеленський наклав санкції на партнера російського 1xBet, наступний — сам букмеке...
Росіяни штурмують Бахмут із кількох сторін і зазнають великих втрат, а ЗСУ намаг...
Українські військові на півдні знищили ворожі Гради та протитанковий ракетний ко...
Медик під час обстрілу надає допомогу. Батальйон Стугна
Глава Міноборони РФ Сергій Шойгу вимагає від генерал-полковника Рустама Мурадова...
Кримський міст підірвали, на півострові паніка
Польща та Німеччина вже на фінальній стадії переговорів щодо створення центру об...
Епічні кадри роботи танка Т-80БВ 25. Наші воїни показали, як гідно та без с...
Вже понад місяць триває війна на Близькому Сході. Час для проміжних висновків 1....