Scuza este să prinzi capcanele care abuzează de copii și prădătorii sexuali, dar în acest proces 100% din fotografiile tale trebuie scanate. Odată ce ușa de supraveghere este deschisă, orice alt tip de fotografie poate fi vizat în orice alt scop. Acestea ar putea include proteste politice, informații de urmărire a locației, profiluri psihologice, adică la ce faceți fotografii etc. Editor Editor TN
Apple va raporta imagini ale exploatării copiilor încărcate pe iCloud în SUA către forțele de ordine, compania a spus joi.
Noul sistem va detecta imaginile numite Material pentru abuz sexual sexual al copiilor (CSAM) folosind un proces numit hashing, în care imaginile sunt transformate în numere unice care corespund acelei imagini.
Apple a început testarea sistemului joi, dar majoritatea utilizatorilor de iPhone din SUA nu vor face parte din acesta până la o actualizare iOS 15 mai târziu în acest an, a spus Apple.
Miscarea aduce Apple în linie cu alte servicii cloud care scanează deja fișierele utilizatorilor, adesea folosind sisteme de hash, pentru conținut care le încalcă condițiile de furnizare a serviciilor, inclusiv imagini de exploatare a copiilor.
De asemenea, reprezintă un test pentru Apple, care spune că sistemul său este mai privat pentru utilizatori decât abordările anterioare de eliminare a imaginilor ilegale de abuz sexual asupra copiilor, deoarece folosește criptografie sofisticată atât pe serverele Apple, cât și pe dispozitivele utilizatorilor și nu scanează imaginile reale, numai hashuri.
Dar mulți utilizatori sensibili la confidențialitate încă se retrag din software-ul care notifică guvernele despre conținutul de pe un dispozitiv sau din cloud și pot reacționa negativ la acest anunț, mai ales că Apple a apărat în mod vocifer criptarea dispozitivelor și operează în țări cu mai puține protecții vocale decât S.U.A.
Oamenii legii din întreaga lume au presat, de asemenea, Apple să slăbească criptarea pentru iMessage și alte servicii software, cum ar fi iCloud, pentru a investiga exploatarea copiilor sau terorismul. Anunțul de joi este o modalitate prin care Apple poate aborda unele dintre aceste probleme fără a renunța la unele dintre principiile sale de inginerie în ceea ce privește confidențialitatea utilizatorilor.
Abordarea Noastră
Înainte ca o imagine să fie stocată în iCloud-ul Apple, Apple se potrivește cu hash-ul imaginii cu o bază de date cu hash-uri furnizate de Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC). Această bază de date va fi distribuită în codul iOS începând cu o actualizare la iOS 15. Procesul de potrivire se face pe iPhone-ul utilizatorului, nu în cloud, a spus Apple.
Dacă Apple detectează un anumit număr de fișiere care încalcă un cont iCloud, sistemul va încărca un fișier care permite Apple să decripteze și să vadă imaginile din acel cont. O persoană va examina manual imaginile pentru a confirma dacă există sau nu o potrivire.
Apple va putea revizui doar imaginile care se potrivesc cu conținut deja cunoscut și raportat la aceste baze de date - de exemplu, nu va putea detecta fotografiile părinților cu copiii lor în baie, deoarece aceste imagini nu vor face parte din baza de date NCMEC.
Dacă persoana care efectuează revizuirea manuală concluzionează că sistemul nu a comis o eroare, atunci Apple va dezactiva contul iCloud al utilizatorului și va trimite un raport către NCMEC sau va notifica forțele de ordine dacă este necesar. Utilizatorii pot face apel la Apple dacă consideră că contul lor a fost semnalat din greșeală, a declarat un reprezentant Apple.
Sistemul funcționează numai pe imaginile încărcate pe iCloud, pe care utilizatorii le pot opri, a spus Apple. Fotografiile sau alte imagini de pe un dispozitiv care nu au fost încărcate pe serverele Apple nu vor face parte din sistem.
Bun. Este timpul ca oamenii să se trezească la ceea ce se întâmplă tot timpul. Singura schimbare acum este că vor începe să meargă după oameni pentru a crea un precedent. Dar dacă crezi că nu știu ce este în iCloud sau pe telefon, nu ești prea inteligent. Ei au creat lucrul. Și am lucrat în telecomunicații, FYI. Aș putea să urc la etajul următor și să văd camera serverului. La acea vreme, se pare că FBI a vrut să intre acolo ... pentru că telefoanele erau de un anumit tip care se presupune că era foarte util pentru dealeri și nu pentru... Citeste mai mult "
Cel mai bun răspuns este să folosiți un spațiu de stocare cloud terță parte care nu are niciun interes în afacerile dvs. private. Sunt acolo, dar trebuie să le cauți. Vă puteți cripta conținutul cu ele. Trebuie doar să știți că tot conținutul criptat nu poate fi recuperat de companie dacă vă pierdeți parola.
Pentru a fi sincer, habar nu aveți care sunt aceste companii. În cercetare, am constatat că toate companiile de „confidențialitate” au o finanțare destul de umbroasă. Și asta fără excepție.
[…] Citiți mai multe: Apple începe să scaneze toate fotografiile și imaginile personale încărcate pe iCloud […]
Mai bine să nu faceți nicio poză cu bebeluși sau copii care fac baie sau dușuri ... sunteți un pervert dacă o faceți acum, cred.
[…] Apple începe să scaneze toate fotografiile și imaginile personale încărcate pe iCloud […]