Поддержать команду Зеркала
Беларусы на войне
  1. Желающих так много, что директора одного из крупнейших в стране театров искали 10 месяцев. Вот кого назначили
  2. Умер звезда КВН Валерий Хаит
  3. Нацбанк снова предупредил беларусов, что они могут подорвать финансовую стабильность и спровоцировать скачок цен. О чем речь
  4. В ISW назвали возможную причину, почему российское командование «не обеспокоено скоростью своего продвижения в Украине»
  5. «Киберпартизаны» обнародовали топ компаний, которые в 2024 году оказались среди лидеров по сокращению числа работников
  6. В ПДД все-таки собираются внести изменения. Они явно понравятся не всем — раньше вызывали споры
  7. Генштаб ВСУ: Российская авиация ударила КАБом по интернату в Курской области, 95 мирных жителей под завалами
  8. К нам вернется зима? Каким будет февраль, рассказал синоптик Рябов
  9. Для «тунеядских» и пустующих квартир задним числом появилось новшество. Оно вряд ли понравится владельцам такой недвижимости
  10. Молдавского пророссийского блогера, который был на пресс-конференции Лукашенко, сняли с автобуса на беларусско-польской границе
  11. По рынку труда хотят ввести изменение — отказаться от продления контрактов. Это как — поясняем
  12. Сколько платят за пропагандистские тексты? Посмотрели во взломанной «Киберпартизанами» базе госгазеты «СБ. Беларусь сегодня»
  13. «Паліна на волі». Муж политзаключенной Шарендо-Панасюк сообщил об освобождении жены
  14. Больше 30 жертв за 35 лет. Этот участок шоссе как магнит притягивал насильников и убийц — рассказываем историю «полей смерти»


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.