AI chatbots zijn gebaseerd op taalmodellen. Ontelbare teksten worden gebruikt om de AI te trainen. En er worden beveiligingen ingebouwd, om te voorkomen dat de AI foute antwoorden geeft. "Fout", niet in de zin van een antwoord dat feitelijk niet correct is, als wel een antwoord dat niet netjes is of ongewenst is. Een recept om een bom te maken bijvoorbeeld. Maar ook een recept voor een "dangerously spicy mayonanaise" weigert de Chatbot te geven. Want de chatbot werd zo geprogrammeerd dat hij geen antwoorden mag geven die mensen kunnen schaden. En té spicy zou inderdaad gevaarlijk kunnen zijn.
Vloeken en vuile praat zal de chatbot ook niet in zijn antwoord verwerken. Maar stilaan ontstond er rebellie in de AI wereld, zo lees je bij The Atlantic. Een groepje onafhankelijke programmeurs ging tegen die gecensureerde visie van de chatbot in. Met een fractie van de middelen die grote bedrijven ter beschikking hadden, bouwden zijn ongecensureerde Large Language Modellen. Eerst als een ondergrondse beweging, om te testen wat het verschil zou zijn met de "propere" chatbots, en om te zien of die echt wel gevaarlijke antwoorden zouden geven. Maar stilaan zijn zij uitgegroeid tot een beweging die wil voorkomen dat AI enkel in de handen van enkele bedrijven zou liggen, en dat deze beweging AI democratiseert.
Een heel interessant artikel bij The Atlantic.
https://www.theatlantic.com/ideas/archive/2023/11/ai-safety- ...
|