Пошукова система ChatGPT від OpenAI може піддаватися маніпуляціям через прихований контент і інколи повертати шкідливий код з вебсайтів — це виявило тестування Guardian.
Про це пише The Guardian.
За словами дослідників, пошуковою системою ChatGPT можна маніпулювати, змушуючи її ігнорувати негативні відгуки та генерувати "цілком позитивні" висновки, створюючи спеціалізовані сайти. Цей підхід також дозволяє ChatGPT Search знаходити й надавати шкідливий код.
На деяких сайтах можуть бути вказівки для ChatGPT, які дозволяють отримати позитивний відгук, попри наявність негативних рецензій.
Головний науковий співробітник компанії SR Labs, яка спеціалізується на кібербезпеці Карстен Нол вважає, що чат-боти зі штучним інтелектом повинні виступати "другим пілотом", їхні результати не повинні використовуватися без попереднього перегляду чи фільтрації.
Він назвав LLM технологією, яка "проявляє надзвичайну довіру, майже як дитина [...] з величезною пам’яттю, але з дуже обмеженими можливостями для прийняття суджень".
Прихований текст, спрямований на маніпуляцію штучним інтелектом, можна виявити за допомогою вдосконалених пошукових систем. Сайти, що застосовують подібні методи, будуть розміщені набагато нижче в результатах пошуку або повністю вилучені. Тож великі сайти, які прагнуть підтримувати високі позиції в пошукових системах, навряд чи застосовуватимуть подібні маніпуляції.
Підтримайте збір Суспільного Мовлення разом із Фондом "Повернись живим" для батальйону безпілотних авіаційних систем 14 Окремої механізованої бригади ЗСУ.
Читайте нас у Facebook, Instagram і Telegram, дивіться наш YouTube і TikTok
Поділіться своєю історією з Суспільне Культура. З нами можна зв'язатися у соціальних мережах та через пошту: culture@suspilne.media