Apple försenar bildskanning av barnmisshandel planerad för iOS 15

0 Shares

Apple tillkännagav en ny barnsäkerhetspolicy för att automatiskt skanna användarfoton efter material för sexuellt övergrepp mot barn (CSAM) förra månaden, vilket uppmanade ett upprop från integritetsförespråkare och konsumenter om kränkningar av integritetsrättigheter och potentiellt utnyttjande av regeringen. Nu fördröjer Apple lanseringen av tekniken för att be om feedback “under de kommande månaderna” innan den släpps.

Apple planerade tidigare att inkludera sin CSAM-skanningsteknik och en medföljande tillvalspolicy för att skärma sexuellt innehåll i iMessages för ungdomar i iOS 15 och iPadOS 15, som förväntas lanseras tillsammans med iPhone 13 (ryktas att presenteras den 14 september). Det skulle ha gått live i USA, utan några uttalade planer för en global lansering. iHär är Apples fullständiga uttalande om förseningen per TechCrunch:

”Förra månaden tillkännagav vi planer för funktioner som är avsedda att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem och begränsa spridningen av material för sexuellt övergrepp mot barn. Baserat på feedback från kunder, förespråkargrupper, forskare och andra har vi beslutat att ta ytterligare tid under de kommande månaderna för att samla in input och göra förbättringar innan vi släpper dessa kritiskt viktiga barnsäkerhetsfunktioner. ”

Kort efter att den nya policyn introducerades i början av augusti via ett blogginlägg följde Apple med en flersidig FAQ som gav detaljerade förklaringar om hur både CSAM-skanning och iMessage-screening för ungdomar skulle fungera.

Apple planerade att använda sin så kallade NeuralHash-teknik för att automatiskt skanna foton för att se om de matchade hascher av känt CSAM-material. Tekniken skannade bara bilder när de laddades upp till iCloud (som är krypterad).

Men regeringarnas potential att utnyttja den automatiska fotoskanningspolicyn för eget bruk hade skrämt integritetsförespråkare och branschgrupper-Electronic Frontier Foundation (EFF) kritiserade företaget för att bygga in någon form av ‘bakdörr’ i användardata, medan Center för demokrati och teknik (CDT) samlade en koalition som förklarar hur sådan fotoskanning kan missbrukas av regeringar som letar efter stötande material.

CDT redogjorde också för hur en annan policy Apple planerade att lansera tillsammans med CSAM -fotoskanning – en valfri funktion i iMessage som suddar bilder med sexuellt innehåll som skickas till användare under 13 år och meddelar föräldrar som är kopplade till samma familjekonto – kan ”hota vissa ungas säkerhet och välbefinnande, och HBTQ+ -ungdomar med osympatiska föräldrar är särskilt utsatta. ”

Slutligen skulle Apple också göra det möjligt för Siri och Search att ge mer användbara resurser för användare som ber om att rapportera CSAM, samt ingripa med varningar och stödjande resurser när användare söker efter CSAM-relaterat material. Det är oklart om detta också kommer att försenas.


Analys: ett steg tillbaka för Apple, ett steg framåt för integritet

Grupperna och individer som motsätter sig Apples nya policy har kritiserat teknikjättens metoder, inte dess avsikt. Förutom att motsätta sig hur det skulle kränka användarnas integritet och öppna en bakdörr för regeringens utnyttjande, kritiserade de potentialen för falska positiva med CSAM -skanningen själv.

Till exempel skisserade Apple att dess anställda inte skulle se några bilder som laddats upp till iCloud som hade skannats automatiskt om de inte passerade en CSAM -hashtröskel – med andra ord att en bilds hash (ett digitalt fingeravtryck av bokstäver och siffror) hittade en matchning i en databas med känt CSAM.

Även om hashmatchning är en metod som används av till exempel Microsoft för sin PhotoDNA-teknik, webbplatsens säkerhetsföretag CloudFlare och anti-barnt sexhandel, Thorn, rapporterade säkerhetsforskare enligt uppgift Apples NeuralHash-kod och kunde generera en hashkollision där två synligt olika bilder kunde producera samma hash, enligt TechCrunch.

Även om vi inte kommer att veta den verkliga effekten av Apples barnsäkerhetsprotokoll förrän de debuterar, verkar det som om Apple tar kritiken och farhågorna på allvar nog för att ta några månader att förfina sitt tillvägagångssätt, vilket innebär att vi kanske inte ser det rulla ut förrän i slutet av 2021 eller 2022.

0 Shares