Новости

Apple отложила запуск функции обнаружения незаконного контента на устройствах

Компания Apple перенесла развертывание инструмента для сканирования фотографий пользователей на предмет жестокого обращения с детьми (CSAM). Об этом пишет 9to5Mac.

В Apple заявили, что отложили запуск средств обнаружения материалов о сексуальном насилии над детьми для «внесения улучшений» после критики. В компании не сообщили о новых сроках релиза инструмента.

«На основании отзывов клиентов, групп защиты интересов, исследователей и других людей мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции для безопасности детей», — сообщили представители компании.

В Apple не поделились деталями возможных улучшений. Ранее корпорация планировала развернуть системы обнаружения CSAM с обновлениями iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, которые выйдут в ближайшие недели.

Apple также планировала запустить систему сканирования контента в «Сообщениях», чтобы оградить детей от непристойных изображений, присланных незнакомцами. С помощью машинного обучения приложение может анализировать прикрепленные фотографии и определять, являются ли они сексуально откровенными. В Apple утверждают, что не получат доступ к сообщениям, а алгоритм будет обрабатывать изображения непосредственно на устройстве.

Также голосовой помощник Siri и встроенные функции поиска в iOS и macOS будут направлять пользователей к соответствующим ресурсам, когда кто-то спрашивает, как сообщить о CSAM, или пытается выполнить поиск незаконного контента.

Напомним, 6 августа Apple рассказала об инструменте для сканирования фотографий пользователей на предмет жестокого обращения с детьми.

Спустя четыре дня корпорация опубликовала шестистраничный документ с ответами на вопросы о работе технологии, а также пообещала не превращать его в инструмент слежки.

В августе более 90 правозащитных групп со всего мира призвали Apple не использовать функцию массового сканирования фотографий.

Читать так же:  Проект Astar на базе Polkadot распределит $100 млн в качестве стимулов

В середине августа исследователь нашел уязвимость в спорном инструменте, а также обнаружил наличие кода функции обнаружения незаконного контента в iOS 14.3.

Источник: Источник

Статьи по теме

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Back to top button