Компания Apple на неопределенное время отложила введение системы распознавания детской порнографии на фотографиях пользователей. Об этом компания сообщила в письме Apple Insider.
Apple приняла такое решение на фоне критики пользователей и общественности.
«Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили, что нам нужно еще несколько месяцев, чтобы собрать информацию и внести улучшения, прежде чем выпустить эти критически важные функции безопасности детей», — говорится в письме.
При этом компания не уточнила, с кем собирается консультироваться по этому вопросу и какую информацию планируется собирать.
В начале августа Apple объявила о разработке технологии, которая позволяет сканировать фотографии, хранящиеся в iCloud, на предмет детской порнографии и жестокого обращения с детьми. Компания объяснила, что новая функция позволит размывать откровенные снимки в сообщениях ребенка, а также предупреждать других пользователей о получении и отправке подобных фотографий. Ожидалось, что новая технология заработает на всех системах операционных Apple — iOS, iPadOS, macOS и watchOS.
Технологию Apple раскритиковали эксперты по кибербезопасности и журналисты. Они обвинили компанию в нарушении приватности и высказали опасение, что в будущем эту функцию могут использовать авторитарные власти. В ответ на критику Apple опубликовала ответы на часто задаваемые вопросы о том, как будет работать технология сканирования фото.