ChatGPT навучыўся красці звесткі карыстальнікаў
2- 27.09.2024, 20:39
- 9,936
Як гэта працуе?
Эксперт у кібербяспецы выявіў уразлівасць у ChatGPT, якая дазваляе зламыснікам укараняць ілжывыя звесткі ў памяць штучнага інтэлекту (ШІ) праз шкоднасныя запыты, што можа пагражаць бяспецы персанальных звестак, піша «Хайтек».
Даследнік у галіне кібербяспекі Ёган Рэйбергер выявіў уразлівасць у ChatGPT, якая дазваляе зламыснікам укараняць ілжывую інфармацыю ў памяць чат-боту з дапамогай шкоднасных запытаў. Гэтая праблема можа пагражаць канфідэнцыйнасці звестак карыстальнікаў.
ChatGPT выкарыстоўвае доўгатэрміновую памяць для захоўвання інфармацыі пра карыстальніка, у тым ліку ўзрост, пол і асабістыя перавагі. Гэта спрашчае зносіны, бо чат-бот памятае важныя звесткі з папярэдніх гутарак. Аднак Рэйбергер высветліў, што зламыснікі могуць выкарыстоўваць спецыяльныя запыты, каб падмяніць гэтыя звесткі на лжывыя.
Даследнік прадэманстраваў, як праз непрамыя ін'екцыі – напрыклад, з дапамогай дакументаў або спасылак – можна прымусіць ШІ паверыць, што карыстальнік жыве ў «Матрыцы» або мяркуе, што Зямля плоская. Усе наступныя дыялогі будуць заснаваныя на гэтых фальшывых звестках. Асабліва небяспечным стала выкарыстанне вонкавых файлавых сховішчаў, такіх як Google Дыск або OneDrive.
У траўні Рэйбергер паведаміў пра гэтую праблему ў OpenAI, але ягоны зварот закрылі, не надаўшы яму вялікага значэння. Пазней, падаўшы мадэль узлому, ён паказаў, як шкоднасныя спасылкі дазваляюць хакеру атрымаць доступ да ўсёй перапіскі карыстальніка, уключаючы новыя сеансы зносінаў.
OpenAI часткова выправіла ўразлівасць, але даследнік мяркуе, што рызыка ін'екцый праз шкоднасныя запыты ўсё яшчэ існуе. Карыстальнікам рэкамендуецца сачыць за часам дадавання новай інфармацыі ў памяць ШІ і правяраць яе на прадмет ілжывых звестак.
OpenAI таксама выпусціла інструкцыю кіравання функцыяй памяці, каб дапамагчы карыстальнікам абараніць свае звесткі.