Läsarfråga: Apple ska titta på mina bilder?

Johannes frågar: Hej Urban. Jag läste ditt inlägg om att Apple ska titta på mina bilder? Kan dom verkligen göra sånt utan att jag godkänner det först? Är det bara att byta till Android nu?

Svar: Hej Johannes. För det första, du behöver inte oroa dig för att Apple ska titta på dina bilder alls. Titeln var lite missvisande och det ber jag om ursäkt för. När jag skrev att Apple ska scanna bilder via AI för att hitta ”CSAM” (Child Sexual Abuse Material) och hindra spridningen av dessa så förenklade jag lite för mycket.

Låt mig förklara lite närmare så att du kan få ro. Detta blir antagligen ett långt svar också, så ta på dig läsglasögonen, poppa lite popcorn och bädda ned dig i sängen så drar vi igång. För er som inte hängt med så kan jag rekommendera detta inlägg som en introduktion.

Det många missförstår är att Apple sitter och tittar på bilder, så är det givetvis inte. Det finns ingen möjlighet i världen att genomföra en sådan sak till att börja med, vilket säkert den rationelle förstår. I och med iOS 15 så kommer denna scanning att ske ombord på dina enheter. iPhone och iOS är målet, men jag kan tänka mig att även Mac kommer att involveras i detta inom snar framtid. En CSAM databas med en form av algoritm laddas ned till din enhet och den inbyggda artificiella intelligensen i din enhet förvandlar dina bilder till kod med en likadan algoritm. Sedan jämförs denna kod med databasen för att upptäcka kända CSAM. Så enkelt (men samtidigt otroligt komplicerat) är det.

Ingenting kommer således att skickas till Apple och inga bilder kommer någonsin att lämna din telefon eller surfplatta. Det finns ingenting att ”se”, eftersom bilderna omvandlas till siffror och bokstäver, som till synes är slumpmässiga. Fräcka selfies och annat egentillverkat material är precis lika säkert som alltid.

Om ett barn exempelvis utsätts för bilder som är känd CSAM så kommer Apples enheter stoppa materialet innan det når barnet, idealisk sett. Föräldrar kommer även att bli förvarnade så att ens barn inte ska utsättas för olämpligt innehåll. Innan detta sker så får barnet i fråga möjlighet att radera materialet och på så sätt undvika att föräldrarna behöver involveras alls. Detta känns både logiskt och tryggt.

Apples AI kommer inte heller att börja anmäla folk till höger och vänster, som det verkar att många tror. Det krävs en viss mängd med CSAM för att något överhuvudtaget ska triggas. Apple själva säger att det rör sig om en otroligt minimal felmarginal, i princip obefintlig. Om någon perverterad själ passerar gränsen för Apples AI så kommer den att göra en anmälan till National Center for Missing and Exploited Children (NCMEC), så att ärendet kan utredas. Samtidigt som detta sker så blockeras användaren från sitt konto, så att dom inte kan undanröja bevismaterial eller sprida det vidare.

Om användaren väljer detta, så kan faktiskt en fysisk person på Apple verifiera det innehåll som ligger till grund för blockeringen av kontot i detta skede. Detta gör att en person som är oskyldig får en chans att rätta till misstaget som skett. Detta kommer ju givetvis i princip aldrig att hända, men möjligheten finns i alla fall om det skulle ske. Vilket känns logiskt.

År 2020 så anmäldes 21 miljoner bilder med denna typ av innehåll, varav 20 miljoner av dessa anmälningar skedde på Facebook och Instagram. På Apples plattformar så kom 265 anmälningar in… Alltså, bara 265 stycken totalt. Apple har insett att det finns ett stort mörkertal på deras plattformar och vill inte vara en del av spridningen av CSAM. Därför har dom valt att integrera denna teknologi på alla deras enheter och även på iCloud.

För att än en gång statuera min inställning så är jag 100% med på detta. Det är otroligt bra av Apple att ta detta steg. Det är på tiden att denna typ av material får svårare att sprida sig på nätet.

Men, nu är det också så att denna typ av scanning enbart kommer att vara aktivt i USA, till att börja med i alla fall. Tekniken kommer säkert att utvecklas och användas även på enheter utanför USA, men detta ligger som sagt långt i framtiden. Troligen rör det sig om lagar och regler som behöver processas innan man kan genomföra något så omfattande.

Till skillnad från Android, som också scannar dina bilder efter CSAM (och för att skräddarsy reklam), och har gjort detta i snart 10 år, så förvandlar Apple allt till en algoritm. Istället för att visuellt kunna se innehåll som på andra plattformar. På detta sätt så kan ingen nyfiken på Apple eller någon myndighet titta på dina bilder, så länge dom inte finns i CSAM-databasen, samt att man haft tillräckligt med material för att trigga Apples AI att låsa kontot. I detta fall blir innehållet tillgängligt för myndigheterna att ta del av.

Som du förstår så är att ”byta till Android” inte någon lösning. Helst inte om du är orolig för att någon ska titta på dina bilder. Mitt råd är att du stannar kvar och litar på att Apple gör sitt yttersta för att ingen obehörig någonsin ska få möjlighet att se ditt privata innehåll.

Jag kan samtidigt passa på att svara på en annan läsarfråga som dykt upp nyligen. ”Kan jag bli anmäld om jag exempelvis tar bilder på mina egna barn i poolen?” Svaret på det är nej. Bilder jämförs med känt CSAM och så länge din bild inte klassas och har blivit anmäld som detta så behöver du inte vara orolig. Det är helt OK att ta sommarbilder och använda sina Apple prylar precis som förr.

Nu hoppas jag att du kan känna lugnet igen, Johannes. Det är egentligen ingenting att bry sig om och ingenting som du personligen kommer att kunna interagera med. CSAM filtret kommer att existera överallt på Apples prylar, men ingen kommer märka någon skillnad mot hur det var innan tekniken kom.

Till en viss del kan denna form av scanning undvikas, genom att inte använda iCloud Bilder. Enligt uppgift från Apple så är det bilder som blir uppbackade mot iCloud som kommer att scannas och ingenting annat. Jag är dock inte säker på denna uppgift, så ta inte mitt ord på att det kommer att fungera på det sättet.

Apple har ett dokument som förklarar det mesta om deras inställning till CSAM och tekniken bakom deras nya filter. Detta går att läsa om direkt på Apples hemsida och är på Engelska. Den är av förståeliga skäl inte översatt till Svenska, än. Det finns dock mycket intressant att läsa där, så jag rekommenderar att du tar dig tiden för detta om du känner dig nyfiken eller orolig inför denna nya teknik.

Ha en riktigt trevlig dag så hörs vi snart igen.

Tags:

Comments are closed

november 2022
M T O T F L S
 123456
78910111213
14151617181920
21222324252627
282930  
Produkter
Prenumerera på bloggen via e-post

Ange din e-postadress för att prenumerera på den här bloggen och få meddelanden om nya inlägg via e-post.