Kindermisbruik
Apple gluurt binnenkort al in je broekzak mee naar je foto’s
Apple heeft nieuwe maatregelen tegen kinderporno aangekondigd. Het bedrijf gaat onder meer foto’s op apparaten van Amerikaanse gebruikers scannen. Critici vrezen dat ouders, autocratische regimes en Apple zelf de technologie kunnen misbruiken.
Apple stond lang bekend als een bastion van privacy. Google en Facebook gluurden misschien mee met onze e-mails en berichtjes, maar Apple had geen boodschap aan de boodschappen die we verstuurden. ‘Wat gebeurt op je iPhone, blijft op je iPhone’, luidde een bekende reclameslogan. Zelfs de FBI kreeg Apple in 2016 niet zover om de werktelefoon van een aanslagpleger te deblokkeren.
Daarom verbaast het kenners dat uitgerekend Apple foto’s van gebruikers gaat scannen. Het bedrijf kondigde op 5 augustus een software-update aan voor in de Verenigde Staten. Binnenkort gaat Apple foto’s op apparaten van Amerikaanse gebruikers automatisch vergelijken met honderdduizenden afbeeldingen van seksueel kindermisbruik.
Als het systeem een bepaalde hoeveelheid treffers heeft – Apple zegt er niet bij hoeveel – gaat bij Apple het alarm af. Vervolgens controleert een medewerker of het echt om kinderporno gaat. Zo ja, dan stuurt Apple een melding naar NCMEC, het Amerikaanse centrum voor vermiste en misbruikte kinderen, dat uiteindelijk de politie inseint.
Controversieel
Apple wordt niet het eerste bedrijf dat door foto’s neust. Zo deed Facebook vorig jaar ruim 20 miljoen meldingen van afbeeldingen met kindermisbruik, die grotendeels rondgingen op Facebooks berichtendienst Messenger. Ook Google en Microsoft gebruiken software om kinderporno op te sporen. Apple zegt privacyvriendelijker te werk te gaan dan die bedrijven. Toch tekenden meer dan 8300 mensen een petitie tegen Apple’s plan.
Wat maakt het idee zo controversieel? Vooral dat de plaatjes op de apparaten zelf gescand gaan worden. Andere bedrijven controleren foto’s die gebruikers hebben geüpload naar de cloud. Maar Apple scant de beelden straks al wanneer iemand probéért een backup in iCloud te maken. Het gebeurt dus niet ergens op een server van Apple, maar op de iPhone in de broekzak, de Mac op de eettafel, het Apple-horloge om de pols.
Daarmee mengt Apple zich in het eigendomsrecht, zegt privacyjurist Jeroen Terstegge. ‘Als een apparaat jouw eigendom is, moet het doen wat jij wil. Het probleem is dat de wet alleen rekening houdt met domme apparaten. Tegenwoordig koop je een smartphone of smart-tv – oftewel de hardware – maar heb je er pas wat aan als de software het ook doet.’ En die software kan op ieder moment worden aangepast. Hoogste tijd om ons burgerlijk wetboek grondig te herzien, vindt de jurist daarom.
Onderdrukkende regimes
Terstegge verwacht niet dat Apple’s nieuwe opsporingssoftware snel in zijn Nederland zal worden uitgerold – de Europese privacywet is strenger dan privacyregels in de VS. Maar de scan-technologie kan wel degelijk internationale gevolgen hebben. Sommige Apple-medewerkers vrezen dat onderdrukkende regimes het gaan misbruiken.
Een legitieme angst, zegt privacy-advocaat Gerrit-Jan Zwenne: ‘Ik zou me in Apple’s idee kunnen vinden als we zeker wisten dat deze software uitsluitend wordt ingezet tegen kindermisbruik. Dat het niet op enig moment wordt uitgebreid naar bijvoorbeeld de bestrijding van politieke opvattingen. Dat het niet zal worden gebruikt om dissidenten op te sporen in Iran, China of Rusland. Maar die zekerheid hebben we niet. Om die reden zou ik zeggen: begin er niet aan.’
Ook Terstegge maakt zich zorgen over die glijdende schaal. ‘Het bestrijden van kinderporno kun je niet tegen zijn. Dat maakt dit een ongemakkelijke discussie. Je ziet vaker dat ingrijpende technologie alleen wordt geaccepteerd als het een middel is tegen kinderporno of terrorisme. Het probleem is dat je de technologie later ook voor andere doeleinden kunt gebruiken.’
Zonder wettelijke basis
Dit risico geldt in principe voor iedere technologie. Ook buskruit werd ooit gebruikt als medicijn voordat China ontdekte dat het handig was voor oorlogsvoering. De techwereld heeft er een term voor: function creep. Terstegge noemt als voorbeeld het ANPR-systeem, een netwerk van honderden slimme kentekencamera’s boven Belgische en Nederlandse wegen.
Eerst mocht ANPR alleen kentekenfoto’s bewaren die overeenkwamen met een databank van gezochte criminelen en mensen met openstaande boetes. Later mocht de politie álle kentekens vier weken opslaan. En recent bleek dat de camera’s zonder wettelijke basis ook gezichten van automobilisten en bijrijders fotografeerden. Het OM gebruikte de beelden voor opsporing en vervolging.
‘Hier was sprake van function creep, op function creep, op function creep’, zegt Terstegge. Dat kon volgens hem omdat de discussie over wat ANPR wel en niet mocht, stopte nadat het systeem was ingevoerd.
Wie controleert Apple?
En dat is nu precies de zorg met Apple. Net als de kentekencamera’s, belooft Apple alleen informatie te bewaren over foto’s die overeenkomen met een databank van kinderporno. Maar Apple zegt ook dat het systeem in de toekomst kan worden uitgebreid. Wie controleert straks waar het bedrijf allemaal naar kijkt, en wat het met die informatie doet?
Apple zou ook het aantal beelden in de databank kunnen uitbreiden, om meer vergelijkingsmateriaal te hebben. Dat kan nieuwe complicaties opleveren, omdat de definitie van kinderporno niet in ieder land precies hetzelfde is.
‘De databank die Apple zegt te gebruiken komt van NCMEC en behoort tot de beste in de wereld’, vertelt Arda Gerkens, directeur van het Nederlandse Expertisebureau Online Kindermisbruik (EOKM). ‘Die databank bestaat uit 200.000 afbeeldingen die internationaal onomstotelijk als kinderporno worden gezien – met kinderen van jonger dan twaalf jaar, betrokken bij een overduidelijk seksuele activiteit.’
Voorlopig hoeven iPhone-eigenaren dus niet te vrezen dat dit systeem een foto van hun kind in bad onterecht voor kinderporno aanziet. Toch kunnen ook mensen met onschuldige plaatjes in de problemen komen. Apple heeft namelijk nog meer maatregelen aangekondigd.
Ook privacy van kinderen in het geding
Tot nu toe gaat de discussie bijna alleen maar over Apple’s plan om foto’s van gebruikers te vergelijken met bekende kinderporno. Maar volgens Gerkens maakt het EOKM zich veel meer zorgen over een ander voorstel van het techbedrijf. Apple heeft ook gezegd dat het met kunstmatige intelligentie (AI) gaat kijken of kinderen beneden de dertien jaar zelf seksueel expliciete foto’s versturen of ontvangen. Ouders kunnen daar dan een waarschuwing over krijgen.
‘Het idee dat je kinderen zo kunt monitoren is een stevige inbreuk op de privacy’, zegt Gerkens. ‘Nog los van het feit dat AI fout-positieve naaktfoto’s kan aanwijzen.’
Een terechte kritiek, vindt privacyjurist Terstegge. ‘Kinderen hebben recht op privacy, ook ten opzichte van hun ouders. Die hebben het ouderlijk gezag, maar dat maakt ze nog geen almachtig orgaan.’
Het is onduidelijk wat voor criteria Apple’s AI precies hanteert. Krijgen ouders al een melding als hun kind te veel huid laat zien? Wie bepaalt wat te veel is? En levert dit bijvoorbeeld problemen op voor transgender kinderen die iets over hun lichaam met iemand willen delen?
‘De gedachte dat ouders veilige mensen zijn voor kinderen om mee te praten over seks of seksuele berichten is bewonderenswaardig, maar in veel gevallen onjuist’, zegt techadvocaat Kendra Albert op Twitter. Albert verwacht dat kinderen die transgender of queer zijn vanwege deze meldingen door ouders ‘geslagen, uit huis geschopt of erger’ zullen worden.
These "child protection" features are going to get queer kids kicked out of their homes, beaten, or worse. https://t.co/VaThf222TP
— Kendra Albert (@KendraSerra) 5 augustus 2021
Bezorgde ouders
Sommige Nederlandse ouders zouden ook wel een waarschuwing willen als hun kinderen naaktfoto’s sturen. Gerkens vertelt dat het EOKM soms de vraag krijgt of ze daar geen app voor kunnen ontwikkelen. Daar is Gerkens vanwege de eerder genoemde privacyzorgen geen voorstander van.
Wel heeft het EOKM een eigen databank met beelden van kindermisbruik. ‘Daarin zitten de beelden van het Amerikaanse NCMEC, die Apple ook gebruikt, maar bijvoorbeeld ook die van de politie en Interpol’, aldus Gerkens. ‘Wij bieden bedrijven die willen voorkomen dat mensen kinderporno naar hun servers uploaden de mogelijkheid om te controleren of een foto ook in ons bestand voorkomt. In tegenstelling tot Apple krijgen die bedrijven de databank zelf niet.’
Gerkens erkent dat de grote vraag bij Apple – kan deze technologie worden misbruikt? – ook opgaat voor deze dienst van het EOKM. ‘Dat geldt voor iedere techniek. Uiteindelijk kunnen we alleen kijken wat er op tafel ligt. Wij denken een goede methode te hebben om te helpen de verspreiding van kinderporno te stoppen.’
Zoals Terstegge zei: daar kun je niet tegen zijn.
Wat gaat Apple nu precies doen?
Op 5 augustus kondigde Apple een software-update aan voor Amerikaanse gebruikers. Om precies te zijn gaat het om drie maatregelen.
1. Apple gaat informatie over kindermisbruik verschaffen. Als gebruikers zoeken naar manieren om aangifte van kinderpornografisch materiaal te doen, helpt Apple ze verder via een tekstbericht of spraakassistent Siri. Als mensen zelf beelden van kindermisbruik zoeken, krijgen ze een bericht dat kinderporno illegaal is, met links naar anonieme hulplijnen voor mensen met pedofiele gedachten.
2. Apple gaat ouders inseinen als hun kinderen seksuele foto’s sturen of krijgen. Als een kind van onder de dertien volgens Apple’s kunstmatige intelligentie (AI) een seksueel getinte foto krijgt, wordt het beeld vervaagd en wordt het kind gevraagd of het de afbeelding echt wil bekijken. Zo ja, dan kunnen de ouders worden gewaarschuwd. Hetzelfde geldt voor ouders van kinderen die seksueel materiaal versturen. Het is onduidelijk wat de software precies onder seksueel verstaat.
3. Apple gaat foto’s van gebruikers vergelijken met bekende kinderporno. Dit is de meest controversiële maatregel. Op het moment dat gebruikers een backup van hun foto's willen maken met iCloud, scant de software die foto's op het Apple-apparaat. Apple heeft hiervoor een eigen variant van een populaire technologie ontwikkeld, waarbij unieke eigenschappen van bekende kinderpornografische foto's worden omgezet in DNA-achtige codes, ‘hashes’ genaamd.
Als een aantal foto’s op het apparaat correspondeert met hashes in Apple's databank, wordt het materiaal na inspectie door een Apple-medewerker doorgestuurd naar de autoriteiten.
(Trouw)