Как будет работать система проверки фотографий на детскую порнографию у владельцев Apple
Apple будет сканировать фотографии пользователей облачного хранилища ICloud. Как объясняют в компании, инициатива направлена на поиск незаконного контента — в частности, изображений, содержащих сцены насилия над детьми.
Система будет введена на устройствах американских пользователей, она будет сканировать фото в хранилищах и сравнивать их с базой изображений, собранной правозащитниками, а в случае необходимости — оповещать полицию. Инициативу уже раскритиковали эксперты издания Financial Times, работающие в сфере IT, а также глава мессенджера WhatsApp Уилл Кэткарт. Он подчеркнул, что насилие над детьми отвратительно и «все хотят, чтобы насильники были пойманы», однако система легко может быть использована в интересах правительств разных стран, в которых продается продукция Apple, в зависимости от того, какой контент власти сочтут неприемлемым.
Выпускающий редактор отдела технологий TJournal Дамир Камалетдинов также отмечает, что позиционирование данной системы выглядит этичным, поскольку призвано защищать детей, однако варианты ее гипотетического использования в будущем вызывают вопросы не только у экспертов по кибербезопасности, но и у журналистов, а также рядовых пользователей.
Фото: tronle_sg / Unsplash