Какво трябва да знаете за защитата на децата за безопасност на Apple

Какво трябва да знаете за защитата на децата за безопасност на Apple

Apple наскоро обяви нови защити за безопасност на децата, които идват тази есен с въвеждането на iOS 15, iPadOS 15 и macOS Monterey.





Ще разгледаме по -отблизо тези разширени функции за безопасност на децата и технологията зад тях по -долу.





Сканиране на материали за сексуална злоупотреба с деца

Най -забележимата промяна е, че Apple ще започне да използва нова технология за откриване на изображения, изобразяващи изображения на насилие над деца, съхранявани в iCloud Photos.





Тези изображения са известни като Материал за сексуална злоупотреба с деца или CSAM и Apple ще докладва случаи на тях на Националния център за изчезнали и експлоатирани деца. NCMEC е център за отчитане на CSAM и работи с правоприлагащите органи.

CSAM сканирането на Apple ще бъде ограничено до САЩ при стартирането.



мога ли да свържа airpods към xbox

Apple казва, че системата използва криптография и е проектирана с оглед на поверителността. Изображенията се сканират на устройството, преди да бъдат качени в iCloud Photos.

Според Apple няма нужда да се притеснявате, че служителите на Apple ще видят действителните ви снимки. Вместо това NCMEC предоставя на Apple хешове с изображения на CSAM изображения. Хеш взема изображение и връща дълъг, уникален низ от букви и цифри.





Apple приема тези хешове и трансформира данните в нечетлив набор от хешове, съхранявани сигурно на устройство.

Свързани: Как iOS 15 защитава поверителността на вашия iPhone по -добре от всякога





Преди да се синхронизира изображението с iCloud Photos, то се проверява спрямо CSAM изображенията. Със специална криптографска технология - частно пресичане - системата определя дали има съвпадение, без да разкрива резултат.

Ако има съвпадение, устройство създава криптографски ваучер за сигурност, който кодира съвпадението заедно с по -криптирани данни за изображението. Този ваучер се качва в iCloud Photos с изображението.

Освен ако акаунтът в iCloud Photos не премине определен праг от съдържание на CSAM, системата гарантира, че ваучерите за безопасност не могат да бъдат прочетени от Apple. Това е благодарение на криптографска технология, наречена секретно споделяне.

Според Apple неизвестният праг осигурява висока степен на точност и гарантира по -малко от един на един трилион шанс за неправилно маркиране на акаунт.

Когато прагът бъде надвишен, технологията ще позволи на Apple да интерпретира ваучерите и съответстващите изображения на CSAM. След това Apple ще прегледа ръчно всеки доклад, за да потвърди съвпадение. Ако бъде потвърдено, Apple ще деактивира потребителския акаунт и след това ще изпрати доклад до NCMEC.

Ще има процес на обжалване за възстановяване, ако потребителят смята, че акаунтът му е бил погрешно маркиран от технологията.

Ако имате проблеми с поверителността с новата система, Apple потвърди, че няма да бъдат сканирани снимки с помощта на криптографската технология, ако деактивирате iCloud Photos. Можете да направите това, като се насочите към Настройки> [Вашето име]> iCloud> Снимки .

Има няколко недостатъка при изключване на iCloud Photos. Всички снимки и видеоклипове ще се съхраняват на вашето устройство. Това може да причини проблеми, ако имате много изображения и видеоклипове и по -стар iPhone с ограничено място за съхранение.

Също така снимките и видеоклиповете, заснети на устройството, няма да бъдат достъпни на други устройства на Apple, използващи акаунта iCloud.

Свързани: Как да получите достъп до iCloud Photos

Apple обяснява повече за технологията, използвана при откриването на CSAM в a бяла хартия PDF . Можете също да прочетете Често задавани въпроси за Apple с допълнителна информация за системата.

В често задаваните въпроси Apple отбелязва, че системата за откриване на CSAM не може да се използва за откриване на нещо различно от CSAM. Компанията също така казва, че в Съединените щати и много други страни притежаването на CSAM изображения е престъпление и че Apple е длъжна да информира властите.

Компанията също така казва, че ще откаже всякакви изисквания на правителството да добави изображение, което не е CSAM, към хеш-списъка. Той също така обяснява защо изображения, които не са CSAM, не могат да бъдат добавени към системата от трета страна.

Поради човешки преглед и факта, че използваните хешове са от известни и съществуващи CSAM изображения, Apple казва, че системата е проектирана да бъде точна и да избягва проблеми с други изображения или невинни потребители, докладвани на NCMEC.

колко трае един mac

Допълнителен протокол за комуникационна безопасност в съобщения

Друга нова функция ще бъдат добавени протоколи за безопасност в приложението Messages. Това предлага инструменти, които ще предупредят децата и техните родители, когато изпращат или получават съобщения със сексуални снимки.

Когато се получи едно от тези съобщения, снимката ще бъде замъглена и детето също ще бъде предупредено. Те могат да видят полезни ресурси и им се казва, че е добре, ако не видят изображението.

Функцията ще бъде само за акаунти, създадени като семейства в iCloud. Родителите или настойниците ще трябва да се включат, за да активират функцията за безопасност на комуникацията. Те могат също така да изберат да бъдат уведомени, когато дете на 12 или по -малко изпрати или получи сексуално явно изображение.

За деца на възраст от 13 до 17 години родителите не се уведомяват. Но детето ще бъде предупредено и попитано дали иска да види или сподели сексуално явно изображение.

Свързани: Как iOS 15 използва интелигентност, за да направи вашия iPhone по -умен от всякога

Messages използва машинно обучение на устройството, за да определи дали прикачен файл или изображение са сексуално откровени. Apple няма да получи достъп до съобщенията или съдържанието на изображението.

Функцията ще работи както за обикновени SMS, така и за iMessage съобщения и не е свързана с функцията за сканиране на CSAM, която описахме по -горе.

И накрая, Apple ще разшири насоките както за Siri, така и за функциите за търсене, за да помогне на децата и родителите да бъдат в безопасност онлайн и да получават помощ в опасни ситуации. Apple посочи пример, при който потребителите, които питат Siri как могат да подадат сигнал за CSAM или експлоатация на деца, ще получат ресурси как да подадат доклад до властите.

Актуализациите ще пристигат в Siri и Search for, когато някой изпълни заявки за търсене, свързани с CSAM. Една намеса ще обясни на потребителите, че интересът към темата е вреден и проблематичен. Те също така ще покажат ресурси и партньори, които да помогнат за получаване на помощ по проблема.

Още промени, идващи с най -новия софтуер на Apple

Разработени съвместно с експерти по безопасност, трите нови функции на Apple са предназначени да помогнат за безопасността на децата онлайн. Въпреки че функциите могат да предизвикат безпокойство в някои кръгове, фокусирани върху поверителността, Apple се появи за технологията и как тя ще балансира опасенията за поверителност със закрилата на детето.

Дял Дял Туит електронна поща 15 скрити функции в iOS 15 и iPadOS 15, които Apple не спомена на WWDC

Вече сте чували за големите промени в iOS 15, но тук са всички скрити промени, които Apple е пропуснала от WWDC.

Прочетете Напред
Свързани теми
  • IPhone
  • Mac
  • Apple
  • Поверителност на смартфона
  • Родителство и технологии
За автора Брент Диркс(193 статии са публикувани)

Роден и израснал в слънчев западен Тексас, Брент завършва Тексаския технически университет с бакалавърска степен по журналистика. Той пише за технологиите повече от 5 години и се радва на всички неща на Apple, аксесоари и сигурност.

Още от Брент Диркс

Абонирайте се за нашия бюлетин

Присъединете се към нашия бюлетин за технически съвети, рецензии, безплатни електронни книги и изключителни оферти!

Щракнете тук, за да се абонирате