Je zou misschien kunnen denken: zouden virtuele afbeeldingen, aangemaakt door AI, niet kunnen helpen in de strijd tegen kinderporno? Er zouden dan tenminste geen kinderen echt fysiek misbruikt worden, om die beelden te maken. Maar dan moet je even stilstaan bij het volgende scenario: stel dat een AI een pornofilmpje maakt waarin jouw kind, dat in zijn badpakje speelt op het strand, als basis gebruikt wordt?
Daarom dit tweede bericht over porno. Onderzoekers van Stanford Internet Observatory hebben ontdekt dat een dataset, die gebruikt werd om door AI aangemaakte tools te trainen, minstens 1.008 exemplaren bevatten van kindermisbruik. Wat ertoe zou kunnen leiden dat AI modellen, die hierop getraind werden, nieuwe en zelfs nog realistischer versies van kindermisbruik kunnen genereren.
LAION, de non profit die de dataset aangemaakt had, heeft daarom de dataset meteen offline gehaald werd. Volgens Engadget zou de dataset zelfs miljoenen afbeeldingen bevatten die ongewenst zijn - niet alleen (kinder)porno maar ook racistische memes, geweld, haatsymbolen, enz. De dataset bevat immers meer dan 5 miljard afbeeldingen en de bijhorende beschrijvingen. Maar het blijkt niet zo eenvoudig om kinderporno op te sporen, zo vertelt Engadget.
https://www.engadget.com/researchers-found-child-abuse-mater ...
|