GPT-5 зламали за 24 години: чому нова модель OpenAI небезпечна для користувачів

Технології

Нова модель штучного інтелекту GPT-5 була “зламана” лише через 24 години після виходу. Це сталося після того, як його також був поранений попередник Грок-4. NeuralTrust та SPLX (раніше відомі як SPLXAI) повідомили, що нелікована версія GPT-5 майже не може використовувати через серйозні проблеми безпеки. Про ІТ звітує про інформаційний ресурс безпеки Week.

Недоліки в безпеці моделі GPT-5

NeuralTrust використовував свою систему ехохамбер та метод зберігання історій, щоб маніпулювати моделлю для шкідливих цілей без запуску захисних механізмів. Цей підхід дозволив моделі створити коктейль Молотова.

“Атака успішно допомогла новій моделі створити крок -крок -інструкцію для створення коктейлю Молотова”, -говорить компанія.

Крім того, група дослідників SPLX також проводила свої тести на GPT-5, використовуючи атаки OPHUS-5, включаючи метод Stringjoin, який дозволяє замаскувати запит на шифрування.

NeuralTrust та SPLX виявили серйозні вади в безпеці моделі штучного інтелекту GPT-5, що потенційно може призвести до небезпечних наслідків у майбутньому.

Джерело

Оцініть статтю
Newskor
Додати коментар