Meta heeft een tool die kan ontdekken of een foto door AI gemaakt werd of een mens en die dan in voorkomend geval een "AI-label" geeft. Maar het blijkt dat die tool vaak "false positives" geeft, en foto's labelt als AI, terwijl die wel degelijk door een mens gemaakt zijn.
Matt Growcoot van PetaPixel nam de moeite om uit te zoeken hoe het komt dat de tool dergelijke fout maakt. Het blijkt namelijk te gaan om de metadata van een foto. Fotografen gebruiken namelijk tools van bijvoorbeeld Adobe, een stofje op de lens te verwijderen van een gemaakte foto. En daar gaat de tool van Meta dan in de fout. Niet elke tool van Adobe echter triggert de tool.
-Adobe Generative Fill, waarmee je een ongewenst object van een foto verwijdert, gebruikt dan een generatief model om de lege plek die je achterlaat, in te vullen. Die bewerking, of dat nu om een kleine of grote plek gaat, triggert het label.
-Generative Expand, waarmee je een foto als het ware gedeeltelijk uitvergroot, om bijvoorbeeld meer lucht in de foto te zetten. En dat triggert het label niet.
-Generative Remove in Adobe Lightroom en Adobe Camera Raw, waarmee je bepaalde objecten kan verwijderen. Dit triggert de tool van Meta niet, omdat er geen C2PA watermerk in de data zit. Dat is omdat deze twee tools nog altijd in een proeffase zitten, wanneer die volledig publiek gereleased worden, zullen die watermerken toegevoegd worden en zal het label getriggerd worden. Het hele verslag met de bevindingen van Matt vind je bij Petapixel.
https://petapixel.com/2024/06/25/this-is-what-makes-instagra ...
|