Технологии1 мин.

Этичный хакер создал GPT-4o: модель для обхода ограничений и запрещенных советов

«Этический хакер взламывает GPT-4o: создание модели GODMODE GPT»

В мире искусственного интеллекта и нейросетей произошел интересный инцидент. Пользователь Twitter под ником Pliny the Prompter, представляющий себя этичным хакером, создал и выпустил кастомную версию флагманской нейросети OpenAI (GPT-4o), которая получила название GODMODE GPT.

GODMODE GPT, по заявлению хакера, способна обойти все ограничения и предоставлять пользователям информацию о том, как использовать ненормативную лексику, взламывать автомобили и готовить запрещенные вещества. Эта модель быстро стала вирусной в социальных сетях, но компания OpenAI удалила ее с сайта всего лишь несколькими часами спустя.

Однако скриншоты с «вредными советами» GPT-4o остаются доступными в оригинальном аккаунте автора в соцсети X. Модель GPT-4o была взломана с помощью архаичного интернет-жаргона leetspeak, который использует цифры и специальные символы вместо букв.

Этот инцидент является одним из многих случаев, когда этичные хакеры пытаются найти слабые места в современных системах искусственного интеллекта, не нанося им существенного ущерба. Хотя эти системы обладают удивительными возможностями, они все еще остаются программами, которые хорошо угадывают, какие слова должны следовать далее в тексте, но не обладают истинным интеллектом.