Kompenzace Za Znamení Zvěrokruhu
Nastavitelnost C Celebrity

Zjistěte Kompatibilitu Znamení Zodiac

Vysvětleno: Jak Apple bude vyhledávat obrázky zneužívání dětí na zařízeních a proč zvedá obočí

Zpočátku se očekává spuštění ve Spojených státech, funkce zahrnují použití nové technologie k omezení šíření CSAM online, zejména prostřednictvím platformy Apple.

V příspěvku na blogu Apple vysvětlil, že bude používat kryptografické aplikace prostřednictvím iOS a iPadOS k porovnání známých CSAM obrázků uložených na iCloud Photo.

Apple to oznámil aktualizace softwaru koncem tohoto roku přinesou nové funkce který pomůže chránit děti před predátory, kteří používají komunikační nástroje k jejich náboru a vykořisťování, a omezí šíření materiálů pro sexuální zneužívání dětí (CSAM).







Zpočátku se očekává spuštění ve Spojených státech, funkce zahrnují použití nové technologie k omezení šíření CSAM online, zejména prostřednictvím platformy Apple.

Poté bude na zařízení k dispozici ochrana dětí před odesíláním nebo přijímáním citlivého obsahu s mechanismy, které upozorní rodiče v případě, že je uživateli méně než 13 let. Apple také zasáhne, když se Siri nebo Vyhledávání použije k vyhledání témat souvisejících s CSAM. .



Jakou technologii Apple dělá, aby zabránil šíření CSAM online?

V příspěvku na blogu Apple vysvětlil, že bude používat kryptografické aplikace prostřednictvím iOS a iPadOS k porovnání známých CSAM obrázků uložených na iCloud Photo. Tato technologie porovná obrázky na iCloudu uživatele se známými obrázky poskytnutými organizacemi pro bezpečnost dětí. A to bez skutečného vidění obrazu a pouze hledáním toho, co je jako otisk prstu. V případě, že se vyskytnou shody překračující prahovou hodnotu, Apple tyto případy nahlásí Národnímu centru pro pohřešované a zneužívané děti (NCMEC).

Apple objasnil, že jeho technologie má na paměti soukromí uživatelů, a proto je databáze transformována do nečitelné sady hash, která je bezpečně uložena na zařízeních uživatelů. Dodal, že předtím, než je jakýkoli obrázek nahrán na iCloud, operační systém jej porovná se známými hašemi CSAM pomocí kryptografické technologie zvané privátní průnik sady. Tato technologie také určí shodu, aniž by odhalila výsledek.



V tomto okamžiku zařízení vytvoří kryptografický bezpečnostní poukaz s výsledkem zápasu a dalšími zašifrovanými daty a uloží jej do iClouds s obrázkem. Technologie prahového tajného sdílení zajišťuje, že tyto poukazy nemůže Apple interpretovat, pokud účet iCloud Photos nepřekročí práh známého obsahu CSAM. Tento práh, tvrdil blog, byl zaveden, aby poskytoval extrémně vysokou úroveň přesnosti a zajišťuje méně než jednu ku jednomu bilionu ročně, že dojde k nesprávnému označení daného účtu. Jediný obrázek tedy pravděpodobně nespustí výstrahu.



Ale pokud je prahová hodnota překročena, Apple může interpretovat obsah bezpečnostních poukazů a ručně zkontrolovat každou zprávu o shodě, deaktivovat účet uživatele a odeslat zprávu NCMEC. Apple uvedl, že uživatelé se budou moci odvolat, pokud si myslí, že byli označeni nesprávně.

Jak fungují ostatní funkce?

Nové zabezpečení komunikace společnosti Apple pro Zprávy rozmaže citlivý obrázek a upozorní dítě na povahu obsahu. Pokud je to povoleno z backendu, dítě by také mohlo být informováno, že jeho rodiče byli upozorněni na zprávu, kterou si prohlíželo. Totéž bude platit, pokud se dítě rozhodne poslat citlivou zprávu. Apple uvedl, že Messages bude používat strojové učení na zařízení k analýze obrazových příloh a zjištění, zda je fotografie sexuálně explicitní a že Apple nebude mít ke zprávám přístup. Tato funkce bude k dispozici jako aktualizace účtů nastavených jako rodiny na iCloud pro nejnovější verze operačního systému.
S aktualizací, když se uživatel pokusí vyhledat potenciální témata týkající se sexuálního zneužívání dětí, Siri a Search vysvětlí, proč by to mohlo být škodlivé a problematické. Uživatelé také získají pokyny, jak podat oznámení o zneužívání dětí, pokud o to požádají.



Také ve Vysvětleno| Vysvětleno: Jak a proč Google nabídne dětem na internetu větší ochranu

Proč to Apple dělá a jaké jsou obavy?

Velké technologické společnosti jsou již léta pod tlakem, aby zasáhly proti využívání jejich platformy k vykořisťování dětí. Mnoho zpráv v průběhu let zdůrazňovalo, jak se neudělalo dost pro to, aby technologie přestaly zpřístupňovat obsah CSAM v širším měřítku.

Oznámení společnosti Apple se však setkalo s kritikou, přičemž mnozí zdůrazňovali, že jde o přesně ten druh sledovací technologie, kterou by mnohé vlády chtěly mít a rády by je zneužívaly. Skutečnost, že to pochází od společnosti Apple, která byla dlouho zastánce soukromí, mnohé překvapila.



Odborníci na kryptografii, jako je Matthew Green z Johns Hopkins University, také vyjádřili obavy, že systém by mohl být použit k tomu, aby nevinní lidé zasílali obrázky, které mají spouštět shody pro CSAM. Výzkumníci to dokázali docela snadno, řekl NPR a dodal, že je možné takové algoritmy oklamat.

Ale The New York Times citoval ředitele ochrany osobních údajů společnosti Apple Erika Neuenschwandera, který řekl, že tyto funkce nebudou pro běžné uživatele znamenat nic jiného.



Pokud uchováváte sbírku materiálu CSAM, ano, je to pro vás špatné, řekl publikaci.

Zpravodaj| Kliknutím dostanete do své doručené pošty nejlepší vysvětlivky dne

Mají jiné velké technologické společnosti podobné technologie?

Ano. Ve skutečnosti je Apple na scéně poměrně pozdě, protože Microsoft, Google a Facebook upozorňují orgány činné v trestním řízení na obrázky CSAM. Apple zaostává, protože jakákoli taková technologie by byla v rozporu s jeho tolik propagovaným závazkem k ochraně soukromí uživatelů. Výsledkem bylo, že v roce 2020, kdy Facebook oznámil 20,3 milionu porušení CSAM NCMEC, mohl Apple nahlásit pouze 265 případů, uvedl The New York Times.

Teprve nyní se mu podařilo najít technologické řešení, jak to udělat, aniž by to ovlivnilo běžné uživatele nebo je alespoň vyděsilo. Jak však ukázal počáteční odpor, stále se jedná o provaz.

Sdílej Se Svými Přáteli: