Через ChatGPT злоумышленники могут легко похищать персональные данные из электронных писем пользователей. Уязвимость устранена, но риски использования популярного ИИ-агента сохраняются.
В агенте OpenAI ChatGPT Deep Research обнаружена уязвимость, которая позволяет с помощью всего лишь одного специально созданного электронного письма получать конфиденциальные данные из раздела входящих сообщений Gmail незаметно для его пользователя, пишет The Verge.
Исследователи безопасности из Radware утверждают, что уязвимость была устранена, но подчеркивают риски, связанные с передачей задач на аутсорсинг агентам ИИ. Они заявили, что другие приложения, подключенные к Deep Research, включая Outlook, GitHub, Google Drive и Dropbox, могут быть уязвимы для аналогичных атак.
Агенты ИИ — это помощники, которые действуют от вашего имени без постоянного контроля. Они могут просматривать веб-страницы и переходить по ссылкам. Компании, разрабатывающие ИИ, уверяют, что разрешая агенту доступ к личной электронной почте, календарям, рабочим документам и т. д. вы сэкономите кучу времени.
Фото: Levart_Photographer на Unsplash

