Apple remt plannen om gebruikersafbeeldingen te scannen op inhoud van kindermisbruik

Apple heeft plannen gepauzeerd om apparaten te scannen op kindermisbruik en uitbuitingsmateriaal nadat de tool tot bezorgdheid leidde bij gebruikers en privacygroepen.

Vorige maand aangekondigd, waren de nieuwe veiligheidsfuncties bedoeld voor opname in iOS 15, iPadOS 15, watchOS 8 en macOS Monterey. De eerste was een functie voor het monitoren van de Berichten-toepassing, waarbij machine learning aan de clientzijde is geïmplementeerd om te scannen en te waarschuwen wanneer seksueel expliciete afbeeldingen worden verzonden, waarbij input van de gebruiker vereist is of ze het materiaal al dan niet willen bekijken.

“Als extra voorzorgsmaatregel kan het kind ook worden verteld dat, om er zeker van te zijn dat ze veilig zijn, hun ouders een bericht zullen krijgen als ze het bekijken”, legt het bedrijf uit.

De tweede reeks wijzigingen had gevolgen voor Siri en Zoeken, met updates die ouders en kinderen aanvullende informatie bieden om hen te waarschuwen wanneer ze in “onveilige” situaties terechtkomen, en om te “ingrijpen” als er wordt gezocht naar materiaal voor seksueel misbruik van kinderen (CSAM ) is uitgevoerd door een gebruiker.

De derde was een CSAM-scantool, aangeprezen als een middel om ‘kinderen te beschermen tegen roofdieren die communicatiemiddelen gebruiken om ze te rekruteren en uit te buiten’.

Volgens de iPhone- en iPad-maker zou de tool cryptografie gebruiken “om de verspreiding van CSAM online te beperken”, terwijl ook de privacy van de gebruiker wordt gerespecteerd. Afbeeldingen zouden niet in de cloud worden gescand, maar er zou op het apparaat worden gematcht, waarbij afbeeldingen zouden worden vergeleken met hashes die zijn gekoppeld aan bekende CSAM-afbeeldingen.

“CSAM-detectie zal Apple helpen om waardevolle informatie te verstrekken aan wetshandhavers over verzamelingen van CSAM in iCloud-foto’s”, aldus het bedrijf. “Dit programma is ambitieus en het beschermen van kinderen is een belangrijke verantwoordelijkheid. Deze inspanningen zullen in de loop van de tijd evolueren en uitbreiden.”

In een technische paper (.PDF) waarin de tool wordt beschreven, zei Apple:

“CSAM-detectie stelt Apple in staat iCloud-gebruikers nauwkeurig te identificeren en te rapporteren die bekende CSAM opslaan in hun iCloud-foto’s-accounts. Apple-servers markeren accounts die een drempelaantal afbeeldingen overschrijden die overeenkomen met een bekende database van CSAM-afbeeldingshashes, zodat Apple relevante informatie kan verstrekken aan de National Center for Missing and Exploited Children (NCMEC). Dit proces is veilig en speciaal ontworpen om de privacy van gebruikers te beschermen.”

De scanner kreeg echter online controverse, wat leidde tot kritiek van privacyadvocaten en cryptografie-experts.

Universitair hoofddocent aan het Johns Hopkins Information Security Institute en cryptografie-expert Matthew Green zei dat de implementatie van cryptografie om te scannen op afbeeldingen die specifieke hashes bevatten zou kunnen worden “een belangrijk ingrediënt bij het toevoegen van bewaking aan versleutelde berichtensystemen.”

Hoewel gemaakt met goede bedoelingen, kan zo’n instrument een krachtig wapen worden in verkeerde handen, zoals die van autoritaire regeringen en dictaturen.

De Electronic Frontier Foundation verwierp ook de plannen en lanceerde een petitie om Apple onder druk te zetten om terug te keren. Op het moment van schrijven heeft het pleidooi meer dan 27.000 handtekeningen. Fight for the Future en OpenMedia lanceerden ook soortgelijke petities.

Op 3 september zei Apple dat de uitrol is stopgezet om “extra tijd” te nemen om de tools en hun potentiële toekomstige impact te analyseren.

“Eerder hebben we plannen aangekondigd voor functies die bedoeld zijn om kinderen te beschermen tegen roofdieren die communicatiemiddelen gebruiken om ze te rekruteren en uit te buiten, en om de verspreiding van materiaal over seksueel misbruik van kinderen te helpen beperken”, aldus Apple. “Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten om de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen voordat we deze uiterst belangrijke veiligheidsfuncties voor kinderen vrijgeven.”

Groen zei: het was een positieve zet van Apple om de tijd te nemen om de uitrol te overwegen. De EFF zei dat het “tevreden” was met de beslissing van Apple, maar voegde eraan toe dat luisteren niet genoeg is – de techgigant zou “zijn plannen om een ​​achterdeur volledig in zijn versleuteling te stoppen” moeten laten vallen.

“De functies die Apple een maand geleden aankondigde, bedoeld om kinderen te helpen beschermen, zouden een infrastructuur creëren die maar al te gemakkelijk om te buigen is naar meer toezicht en censuur”, zegt de digitale rechtengroep. “Deze functies zouden een enorm gevaar vormen voor de privacy en veiligheid van iPhone-gebruikers, en autoritaire regeringen een nieuw massaal surveillancesysteem bieden om burgers te bespioneren.”

Vorige en gerelateerde dekking


Heb je een tip? Veilig contact opnemen via WhatsApp | Signaal op +447713 025 499, of via Keybase: charlie0



Posted By : keluaran sidney hari ini