Поддержать команду Зеркала
Беларусы на войне
  1. В Стамбуле состоялся третий раунд переговоров между Украиной и Россией. Итоги
  2. Фотограф случайно увидела свой снимок на учебнике по французскому от Минобра. На нем изображена семья, которая уехала из Беларуси
  3. До Минска дошел грозовой фронт — город в очередной раз подтопило. Местами не ходит транспорт
  4. «Кто насрал нам в уши о том, что там есть мины?» Украинский уклонист утверждает, что бежал в Европу через Беларусь
  5. Любимая газета Путина опубликовала статью о нападении ЕС на Россию в 2027 году. Главный эксперт в ней — одиозный беларусский пропагандист
  6. В 2026 году будем отдыхать четыре дня подряд. В какие даты
  7. Андрей Стрижак отстранен от руководства BYSOL
  8. «Звоночки были раньше». В 27 лет беларуска не обратила внимание на симптомы страшного заболевания, а в эмиграции стало хуже
  9. Переговоры в Стамбуле еще не состоялись, но Россия уже демонстрирует свое истинное отношение к их результатам — вот примеры
  10. Признание Стрижака об отправке дикпиков собрало более 300 комментариев. Не все написавшие их поняли, в чем проблема поступка, — объясняем
  11. 398 из 400 возможных. Посмотрите, насколько высокие баллы нужно было набрать, чтобы бесплатно учиться на некоторых специальностях
  12. «Мне жаль, что меня неправильно поняли». Тихановский объяснил, что имел в виду, когда говорил об «островах» для беларусов
  13. «Хотел отправить фото Антону Мотолько». Никита Лосик рассказал о задержании, СИЗО и суде
  14. «У нас тотальное падение». Интервью с представительницей директората BYSOL о скандале со Стрижаком
  15. «В этом смысле очень существенными стали два события». Власти переключились на «тихие репрессии» — правозащитник


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.