Компания Apple планирует в скором времени анонсировать систему сканирования фотографий, сохраненных в памяти iPhone. Эта система предназначена для обнаружения изображений жестокого обращения с детьми. В ее основе решения лежит алгоритм хеширования. Об этом сообщил эксперт по вопросам криптографии и безопасности Мэтью Грин (Matthew Green).
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Apple ранее удаляла отдельные приложения из App Store из-за проблем с детской порнографией. Но теперь речь идет о более жестких мерах. С целью сохранности личных данных сканирование изображений будет производится локально, то есть средствами самого пользовательского устройства, без передачи данных в облако. В процессе сканирования система сравнивает фото на iPhone с данными известных Apple изображений незаконного содержания. При возникновении совпадений с образцами система предположительно будет обращаться к администратору, который проведет дальнейшую работу.
Грин также отметил, что хеширующие алгоритмы несовершенны, они могут приводить к ложным положительным срабатываниям. Если подобная функция внедряется по настоянию властей, то она сможет использоваться не только для обнаружения фактов жестокого обращения с детьми, но и в других целях. Фотографии в iCloud не защищены сквозным шифрованием. На серверах Apple они хранятся в зашифрованном виде, но ключи для расшифровки данных есть у самой компании. А значит, при необходимости они могут появиться и у правоохранительных органов.
Компания Apple пока не подтвердила грядущее нововведение.