Je hebt kunnen lezen dat Apple heel wat kritiek kreeg op zijn plannen om je foto's te scannen, op een heel anonieme manier weliswaar, om kindermisbruik op te sporen. Apple heeft nu aangekondigd dat het die plannen voorlopig uitstelt.
Na feedback van de gebruikers zelf, van actiegroepen, onderzoekers, en andere, wil het nu enkele maanden lang meer input vragen van verschillende partijen, en verbeteringen uitvoeren aan de methodes die het hiervoor wou gebruiken.
Apple blijft achter zijn plannen staan, omdat die volgens het bedrijf erg belangrijk zijn om kinderen te beschermen tegen kinderlokkers, die communicatietools misbruiken om kinderen te rekruteren en misbruiken.
De beslissing om de invoering van de maatregelen uit te stellen, geldt voor de twee verschillende onderdelen ervan. Enerzijds het vergelijken van jouw foto's die je wil uploaden naar je iCloud, met een reeks hashes van gekende kindermisbruik (CSAM) afbeeldingen. En anderzijds het algoritme in Apple Messages dat op zoek gaat naar expliciete afbeeldingen, die verstuurd worden naar jongeren onder de 18.
Meer bij Apple zelf en 9to5Mac.
https://9to5mac.com/2021/09/03/apple-delays-rollout-of-csam- ...
https://www.apple.com/child-safety/
https://www.protocol.com/apple-csam-delay
|