Фахівці корпорації Microsoft оцінили ризики безпеки користувачів, пов’язані зі штучним інтелектом (ШІ). Дослідження опубліковано на сервері препринтів arXiv.
Вчені проаналізували понад 100 інструментів генеративного ШІ, оцінивши ризики, пов’язані з ними. За їхніми словами, ШІ «ніколи не буде повністю безпечним», тому фахівцям важливо контролювати, на основі чого навчаються мовні моделі (LLM), і попереджати помилки.
Фахівці дійшли висновку, що великі мовні моделі (LLM) посилюють ризики безпеки і створюють нові. Так, якщо навчати LLM на основі помилкових або конфіденційних даних, модель поширюватиме цю інформацію серед користувачів. Також вони назвали потенційну шкоду від ШІ важкооцінною.
Щоб підвищити безпеку від використання ШІ, фахівці запропонували контролювати кожен етап навчання LLM. Як один із висновків дослідження вони зазначили, що людський фактор у процесі навчання ШІ завжди буде вирішальним. Також у роботі зі штучним інтелектом необхідні предметна експертиза, культурна компетентність та емоційний інтелект.
На початку січня швейцарські вчені пов’язали часте використання інструментів ШІ зі зниженням навичок критичного мислення. Вони передбачили, що у довгостроковій перспективі ШІ буде неминуче впливати на зниження когнітивних функцій у суспільстві.
Спасибо!
Теперь редакторы в курсе.