Hét probleem met Large Language Modellen en andere generatieve AI, is dat die (in de meeste gevallen) gebaseerd zijn op werken van creators, die daarvoor geen toestemming gegeven hebben. Maar zij slaan nu terug. Een team onder leiding van Ben Zhao, een professor aan de universiteit van Chicago, heeft een tool gemaakt die Nightshade heet, en waarbij artiesten hun werk kunnen voorzien van een "vergiftigde pil". Die zorgt ervoor dat hun werk er perfect normaal uitziet voor jou en mij, voor het menselijke oog dus. Maar de algoritmes die op hun werk losgelaten worden om het model te trainen, worden gesaboteerd.
Het team had al eerder een gelijkaardige tool gemaakt, Glaze, die de stijl van een artiest beschermt. Nightshade gaat echter verder. Maar beide tools werken eigenlijk hetzelfde. In de afbeelding stopt de technologie pixels die de afbeelding er voor ons normaal laat uitzien, maar wel veranderen hoe de training algoritmes de afbeelding zien.
Concreet: stel dat voorbeelden van afbeeldingen van honden zodanig gesaboteerd worden dat die door het algoritme als afbeeldingen van katten beschouwd worden. Wanneer jij dan aan de AI vraagt om een afbeelding van een hond, dan zou je een kat te zien krijgen. Volgens het artikel zou het al volstaan om 300 afbeeldingen van honden te "vergiftigen", om bij Stable Diffusion dit effect te creëren. Er werden ook al "vergiftigingen" uitgevoerd waarbij hoeden er als cakes gingen uitzien, en handtassen als broodroosters.
Leuk gevonden, maar is het ook een goed concept? Het doel is uiteraard om de makers van de large language modellen te verplichten om de toestemming te vragen van de creator, vooraleer diens afbeeldingen te gaan gebruiken. En dat idee is zeker en vast verdedigbaar.
Maar, zou je kunnen opwerpen: kan de LLM maker die vergiftigingen niet omzeilen, door een schermafdruk te maken van de afbeelding en die te gebruiken als basis? Dan zitten we natuurlijk wel in een "ratrace", want dan zouden de makers van Nightshade ongetwijfeld manieren vinden om die omzeiling te omzeilen. Waarna de LLM-makers weer nieuwe manieren moeten bedenken om ook die weer te omzeilen. En het op termijn goedkoper wordt om het spel eerlijk te spelen, en de creators netjes om toestemming te vragen om hun werk te mogen gebruiken...
https://www.engadget.com/new-tool-lets-artists-fight-ai-imag ...
https://www.technologyreview.com/2023/10/23/1082189/data-poi ...
|