AFP

De aangekondigde Apple-software die via de cloud iPhones doorzoekt op beelden van kindermisbruik, zal alleen daarvoor gebruikt worden. Dat benadrukt het bedrijf vandaag in een nieuwe lijst van veelgestelde vragen om de kritiek op de plannen te temperen.

"We willen er duidelijk over zijn dat deze technologie zich beperkt tot het detecteren van materiaal van seksueel misbruik van kinderen dat is opgeslagen in iCloud, en we zullen niet ingaan op het verzoek van een regering om deze functie uit te breiden", schrijft het bedrijf.

"We hebben eerder te maken gehad met eisen van overheden om wijzigingen door te voeren die de privacy van gebruikers aantasten, en hebben die eisen altijd standvastig afgewezen. We zullen dat in de toekomst blijven doen", staat er.

Aanpassingen gedaan in Saudi-Arabië of China

Beveiligings- en privacydeskundigen zijn kritisch over de plannen van Apple, omdat gevreesd wordt dat dit het begin is van het in de gaten houden van meer gegevens van alle Applegebruikers. Ook zijn er zorgen dat zulke programma's ingezet kunnen worden om andere zaken op te sporen, zoals dissidente geluiden door autoritaire regimes.

Hoewel Apple verzekert dat het niet zal voldoen aan verzoeken van overheden om de software aan te passen, wijst techwebsite The Verge erop dat Apple dit eerder wel heeft gedaan. Zo is videobellen met Facetime niet mogelijk in Saudi-Arabië, Pakistan en de Verenigde Arabische Emiraten waar versleutelde telefoongesprekken niet zijn toegestaan.

En in China zijn veel apps uit de app-store verwijderd en Apple staat het toe dat iCloud-data van Chinese gebruikers op een door de Chinese overheid beheerde server staan.

Alleen in de VS, vooralsnog

De nieuwe software bevat twee functies. Eén gebruikt machine learning op het apparaat om seksueel expliciete afbeeldingen die door kinderen in een berichten-app worden ontvangen te identificeren en te blurren. Bovendien kunnen ouders op de hoogte worden gebracht als een kind van 12 jaar of jonger besluit een dergelijke afbeelding te bekijken of te verzenden.

De tweede functie is ontworpen om afbeeldingen van seksueel misbruik van kinderen te detecteren door de afbeeldingen die naar iCloud worden gestuurd te scannen. Een programmaatje vergelijkt een fotobibliotheek van een gebruiker met een 'kinderpornolijst', een lijst met bevestigd kinderpornomateriaal waarvan de digitale handtekeningen door Apple zijn opgeslagen.

Worden bepaalde foto's of video's aangemerkt als kinderporno, dan worden ze gedeeld met Apple, die ze daarop weer deelt met de autoriteiten. Dat gebeurt alleen als een gebruiker het back-uppen van foto's naar iCloud heeft ingeschakeld.

Apple heeft deze functies niet in opdracht van of in samenwerking met die instanties ontwikkeld. Het nieuwe plan van Apple wordt in eerste instantie alleen in de Verenigde Staten ingevoerd. Of en wanneer de Europese Unie aan de beurt komt, is onbekend

STER reclame