We hebben het al eerder gehad over het feit dat er vragen gesteld kunnen worden over het feit dat de huidige artificiële modellen gebaseerd zijn op het schrapen van miljarden teksten, afbeeldingen en meer, die op het internet te vinden te zijn. En zonder dat daarvoor op voorhand toestemming gegeven werd door de makers van die content, laat staan dat die gevraagd werd.
Toch opvallend - wij kunnen ons nog herinneren dat wij, bijna 20 jaar geleden, een document kregen van een universiteit in Nederland, die het taalgebruik in tech-publicaties wou onderzoeken. En ons de toestemming vroeg om onze teksten te indexeren in hun database. Dat is dus eigenlijk wat bedrijven zoals OPenAI (want dat is geen onderzoeksproject meer, het is uitgegroeid tot een heus bedrijf dat miljarden dollars kan opbrengen) ook had moeten doen, bij het bouwen van zijn Large Language Model.
Wie zich niet kan vinden in het gebruik van zijn werk voor deze grote modellen, kan nu beroep doen op een tool die ontwikkeld werd door de University of Chicago: Glazed. Deze niet-commerciële app, die bovendien gratis is, zorgt voor een "cloaking": hij beschermt het intellectueel eigendom van de artiest door te voorkomen dat zijn werk geschraapt wordt, en opgenomen wordt in datasets om AI tools te trainen.
In een paper wordt uitgelegd hoe de app werkt: hij voegt kleine "storingen" (perturbations)aan elk artwork toe waarop je het toepast. Die verstoren het vermogen van de AI modellen om data te lezen over de artistieke stijl, waardoor het systeem ertoe gebracht wordt om stijlen als output te geven die niet op het originele artwork lijken. Meer bij TechCrunch.
https://techcrunch.com/2023/03/17/glaze-generative-ai-art-st ...
|