Ранее сегодня мы сообщали, что исследователи программного обеспечения смогли создать конфликт в системе поиска изображений, содержащих кадры жестокого обращения с детьми. Apple отреагировала на это сообщение, заявив, что энтузиасты получили доступ к коду лишь части системы, который, к тому же, не является окончательным. Компания заверяет, что в окончательной версии ПО ложные срабатывания будут полностью исключены.
Apple объяснила, что её технология гораздо сложнее, чем механизм NeuralHash, который является лишь её частью. По словам компании, функция обнаружения незаконных изображений будет работать непосредственно на устройстве пользователя, в отличие от решений Google и Microsoft, которые работают в облаке. Система будет сканировать фотографии, загружаемые пользователями в iCloud. Если она найдёт более 30 незаконных снимков, то сообщит об этом в правоохранительные органы. Для исключения ошибок результаты будут проверять живые люди. Многоуровневая проверка должна полностью исключить ложные срабатывания.
Apple заявила, что версия NeuralHash, воссозданная и протестированная энтузиастами, не является окончательной. Компания также обнародовала алгоритм, для того, чтобы исследователи безопасности убедились, что он работает как следует. Apple обращает внимание на то, что один из этапов проверки изображений будет проводиться экспертами компании, поэтому, даже если злоумышленники смогут пометить обычные изображения как незаконные, специалисты отметят срабатывание как ложное.
С тех пор, как Apple представила систему отслеживания изображений, содержащих кадры жестокого обращения с детьми, эксперты по безопасности и представители общественности высказывают обеспокоенность возможными сценариями злоупотребления её возможностями. Компания пытается развеять опасения, публикуя техническую документацию и поддерживая диалог со скептически настроенными пользователями.