WSJ: Apple відмовилася від функції сканування фотографій користувачів

Apple закрила програму сканування фотографій користувачів щодо жорстокого поводження з дітьми. Про це повідомляє видання The Wall Street Journal. 

У розмові з кореспондентом WSJ Джоанною Штерн старший віце-президент Apple Крейг Федеріги підтвердив, що IT-корпорація не скануватиме фотографії користувачів із iCloud.

Відмова від проекту опосередковано пов’язана із введенням наскрізного шифрування даних на iCloud, через яке вивчення збережених у хмарному сховищі зображень виявиться технічно неможливим.

Функцію сканування CSAM було анонсовано восени 2021 року. У Apple зазначали, що ця технологія дозволить виявляти випадки жорстокого поводження та сексуального насильства над дітьми. У компанії пояснили, що CSAM дозволяє аналізувати фотографії, вивчаючи хеш-дані зображень.

“Сексуальне насильство над дітьми можна запобігти до того, як воно відбудеться… Ось на що ми спрямовуємо нашу енергію”, – заявив Крейг Федерігі. У розмові з журналістом видання топ-менеджер Apple наголосив, що забезпечення безпеки даних користувачів має вирішальне значення.

У серпні стало відомо, що Apple перестала коментувати ситуацію з програмою з вивчення фотографій користувачів iPhone щодо жорстокого поводження з дітьми. Журналісти звернули увагу, що IT-компанія видалила зі свого сайту всю інформацію про цю програму.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

2022-12-10