Глава ООН попереджає про ризики ШІ для глобального миру та безпеки

Глава ООН попереджає про ризики ШІ для глобального миру та безпеки

В ООН попередили про ризики ШІ для глобального миру та безпеки
. Генеральний секретар ООН Антоніу Гутерреш, фото: АР

Штучний інтелект може становити загрозу глобальному миру та безпеці. Про це заявив генеральний секретар ООН Антоніу Гутерреш, закликавши всі країни-члени терміново встановити обмеження, щоб контролювати цю технологію. Про це повідомляє France24.

"Очевидно, що штучний інтелект матиме вплив на кожну сферу нашого життя. Генеративний штучний інтелект має величезний потенціал для добра і зла в масштабах", — сказав Гутерріш на першому засіданні Ради Безпеки ООН на цю тему.

Він додав, що ШІ може мати "дуже серйозні наслідки для глобального миру та безпеки".

Британський міністр закордонних справ Джеймс Клеверлі, чия країна зараз головує в Раді Безпеки, сказав, що штучний інтелект "вплине на роботу цієї ради. Він може посилити або порушити глобальну стратегічну стабільність". Міністр зазначив, що уряд Сполученого Королівства пізніше 2023 року прийме саміт зі штучного інтелекту.

Гутерреш попросив країни-члени укласти юридично зобов’язуючий пакт про "заборону летальних автономних систем зброї" до кінця 2026 року.

Генсек ООН попередив, що використання ШІ терористами або урядами з недобрими намірами може спричинити "жахливий рівень смерті та руйнувань".

Він також попередив, що неправильна робота нейромережі може спричинити хаос, особливо якщо ця технологія використовується у зв’язку з системами ядерної зброї чи біотехнологіями.

Він закликав створити робочу групу для розробки варіантів глобального управління ШІ до кінця року.

На початок