Wymówką jest uwięzienie sprawców przemocy wobec dzieci i drapieżników seksualnych, ale w tym procesie 100 procent twoich zdjęć również musi zostać zeskanowane. Po otwarciu drzwi nadzoru każdy inny rodzaj zdjęcia może być skierowany do dowolnego innego celu. Może to obejmować protesty polityczne, informacje o lokalizacji, profile psychologiczne, tj. to, co robisz zdjęcia itp. ⁃ Edytor TN
Apple zgłosi zdjęcia przedstawiające wykorzystywanie dzieci przesłane do usługi iCloud w USA organom ścigania, firmie powiedział w czwartek.
Nowy system będzie wykrywał obrazy zwane materiałami do wykorzystywania seksualnego dzieci (CSAM) za pomocą procesu zwanego haszowaniem, w którym obrazy są przekształcane na unikalne numery odpowiadające temu obrazowi.
Apple rozpoczął testowanie systemu w czwartek, ale większość amerykańskich użytkowników iPhone'a nie będzie częścią tego do aktualizacji iOS 15 jeszcze w tym roku, powiedział Apple.
To posunięcie zbliża Apple do innych usług w chmurze, które już skanują pliki użytkowników, często przy użyciu systemów haszujących, w poszukiwaniu treści naruszających ich warunki korzystania z usług, w tym obrazów wykorzystywania dzieci.
Stanowi również test dla Apple, który mówi, że jego system jest bardziej prywatny dla użytkowników niż poprzednie podejścia do eliminowania nielegalnych obrazów przedstawiających seksualne wykorzystywanie dzieci, ponieważ wykorzystuje wyrafinowaną kryptografię zarówno na serwerach Apple, jak i urządzeniach użytkowników i nie skanuje rzeczywistych obrazów. tylko haszy.
Jednak wielu wrażliwych na prywatność użytkowników wciąż wzdryga się przed oprogramowaniem, które powiadamia rządy o zawartości urządzenia lub w chmurze, i może negatywnie zareagować na to ogłoszenie, zwłaszcza że Apple głośno bronił szyfrowania urządzeń i działa w krajach o mniejszej ochronie mowy niż nas
Funkcjonariusze organów ścigania na całym świecie naciskali również na Apple, aby osłabił szyfrowanie dla iMessage i innych usług oprogramowania, takich jak iCloud, w celu zbadania wykorzystywania dzieci lub terroryzmu. Ogłoszone w czwartek ogłoszenie jest dla Apple sposobem na rozwiązanie niektórych z tych problemów bez rezygnacji z niektórych zasad inżynieryjnych dotyczących prywatności użytkowników.
Jak to działa?
Zanim obraz zostanie zapisany w Apple iCloud, Apple dopasowuje hash obrazu do bazy danych hashów dostarczonej przez National Center for Missing and Exploited Children (NCMEC). Ta baza danych będzie dystrybuowana w kodzie iOS, począwszy od aktualizacji do iOS 15. Proces dopasowywania odbywa się na iPhonie użytkownika, a nie w chmurze, powiedział Apple.
Jeśli Apple następnie wykryje pewną liczbę naruszających plików na koncie iCloud, system prześle plik, który pozwoli Apple odszyfrować i zobaczyć obrazy na tym koncie. Osoba ręcznie przejrzy obrazy, aby potwierdzić, czy istnieje dopasowanie.
Apple będzie mógł przeglądać tylko obrazy, które pasują do treści, które są już znane i zgłoszone do tych baz danych — na przykład nie będzie w stanie wykryć zdjęć rodziców ich dzieci w wannie, ponieważ te obrazy nie będą częścią bazę danych NCMEC.
Jeśli osoba dokonująca ręcznego przeglądu stwierdzi, że system nie popełnił błędu, Apple wyłączy konto iCloud użytkownika i wyśle raport do NCMEC lub w razie potrzeby powiadomi organy ścigania. Użytkownicy mogą złożyć odwołanie do Apple, jeśli uważają, że ich konto zostało oznaczone przez pomyłkę, powiedział przedstawiciel Apple.
System działa tylko na obrazach przesłanych do iCloud, które użytkownicy mogą wyłączyć, powiedział Apple. Zdjęcia lub inne obrazy na urządzeniu, które nie zostały przesłane na serwery Apple, nie będą częścią systemu.
Dobry. Najwyższy czas, żeby ludzie obudzili się z myślą o tym, co się dzieje przez cały czas. Jedyną zmianą jest to, że zaczną ścigać ludzi, aby ustanowić precedens. Ale jeśli uważasz, że nie wiedzą, co jest w twoim icloud lub w telefonie, nie jesteś zbyt mądry. Oni to stworzyli. I pracowałem w telekomunikacji, FYI. Mógłbym po prostu wejść na piętro i zobaczyć serwerownię. W tamtym czasie FBI najwyraźniej chciało się tam dostać… ponieważ telefony były szczególnego typu, który podobno był bardzo przydatny dla dealerów, a nie... Czytaj więcej "
Najlepszą odpowiedzią jest skorzystanie z pamięci masowej w chmurze innej firmy, która nie jest zainteresowana twoimi prywatnymi sprawami. Są tam, ale musisz ich poszukać. Za ich pomocą możesz zaszyfrować swoją zawartość. Po prostu wiedz, że cała zaszyfrowana zawartość nie może zostać odzyskana przez firmę, jeśli zgubisz hasło.
Szczerze mówiąc, nie masz pojęcia, kim są te firmy. Podczas badań odkryłem, że wszystkie firmy zajmujące się „prywatnością” mają dość podejrzane finansowanie. I to bez wyjątku.
[…] Czytaj więcej: Apple rozpoczyna skanowanie wszystkich osobistych zdjęć i obrazów przesłanych do iCloud […]
Lepiej nie robić żadnych zdjęć niemowlętom lub dzieciom biorącym kąpiel lub prysznic….Jesteś zboczeńcem, jeśli teraz to robisz.
[…] Apple rozpoczyna skanowanie wszystkich osobistych zdjęć i obrazów przesłanych do iCloud […]