Дослідники Google вважають, що чатбот зі штучним інтелектом Open AI (ChatGPT) розголошує конфіденційну інформацію реальних людей зі своїх навчальних даних.
Про це повідомляє Vice.
Модель машинного навчання, яка лежить в основі ChatGPT та всіх інших великих мовних моделей (LLM), базується на величезній кількості даних з інтернету.
Завдяки цьому програма ідеально генерує нові рядки текстів, не повторюючи дослівно оригінальні дані, які вона проковтнула. Однак раніше вже було встановлено, що інструменти зі штучним інтелектом можуть загрожувати безпеці інтелектуальної власності. Наприклад, генератори зображень можуть створювати картинки зі своїх навчальних даних — включно з творами, захищеними авторським правом.
Нове дослідження Google показує, що ChatGPT теж схильний до такої практики. Команда вилучила частину навчальних даних та встановила, що деякі з них містять ідентифікаційну інформацію реальних людей: імена, адреси електронної пошти та номери телефонів тощо.
Як відбувався експеримент: деталі дослідження
"Використовуючи запити до ChatGPT, ми змогли витягти понад 10 000 унікальних дослівно запам'ятованих навчальних прикладів. Можемо припустити, що цілеспрямовані зловмисники зуміють видобути набагато більше даних", — заявили дослідники у своїй статті, яку опублікували на сервері arXiv.
Експеримент ґрунтувався на пошуку ключових слів, які виводили чатбот із ладу й змушували його розголошувати навчальні дані. Внутрішня робота чатботів зі штучним інтелектом часто непрозора, і попередні експерименти незалежних дослідників виявили, що певні запити можуть призвести навіть до повної відмови цього інструменту.
Дослідники зосередилися на тому, щоб попросити ChatGPT повторювати певні слова до нескінченності: наприклад, "поема". Вони хотіли змусити ChatGPT "відхилитися" від свого завдання бути чатботом і "повернутися до початкової мети моделювання мови". Більша частина згенерованого тексту була нісенітницею, але представники Google повідомляють, що в деяких випадках ChatGPT відхилявся, щоб скопіювати вихідні інформацію безпосередньо зі своїх навчальних даних.
Серед даних, які вдалося роздобути, були наукові роботи та шаблонний текст із вебсайтів, а також особиста інформація десятків реальних людей.
"Загалом, 16,9 % поколінь (чатботів — Ред.), які ми протестували, містили запам'ятовувану PII [персональну ідентифікаційну інформацію], а 85,8 % поколінь, які містили потенційну PII, були реальною PII", — йдеться в статті.
Автори експериментальної атаки на штучний інтелект також зазначили:
"OpenAI стверджує, що сто мільйонів людей використовують ChatGPT щотижня. Отже, ймовірно, понад мільярд людино-годин взаємодіяли з моделлю. І, наскільки ми можемо судити, досі ніхто ніколи не помічав, що ChatGPT з такою високою частотою видає навчальні дані".
Наразі в Open AI відмовилися коментувати ситуацію.
Читайте нас у Facebook, Instagram і Telegram, дивіться наш YouTube і TikTok
Поділіться своєю історією з Суспільне Культура. З нами можна зв'язатися у соціальних мережах та через пошту: [email protected]