Je kon verleden week lezen dat Microsoft in zijn Bing zoekmachine voortaan ook AI antwoorden inbouwt. Maar daar blijkt toch af en toe iets fout mee te gaan. Vooral wanneer de gebruiker een langer gesprek, met telkens opnieuw een vraag na een antwoord van Bing, voert. De AI zou dan compleet uit de bocht gaan, zo valt te lezen in een artikel van de New York Times, (1)
De publicatie Mother Jones gaat nog een stapje verder: volgens de site geeft Bing "prachtige antwoorden", maar tegelijkertijd gevaarlijk overtuigende valse beweringen, citaten die eigenlijk verzinsels zijn, en zelfs shockerende claims over zijn eigen kunnen, in vergelijking met dat van de mens (2)
Daarom heeft Microsoft beperkende maatregelen genomen: de gesprekken worden beperkt tot 5 vragen per chat sessie. En je zal maximum 50 sessies per dag kunnen houden.
Dat moet volgens Microsoft volstaan, want bij de meeste vragen vindt de gebruiker een antwoord binnen die 5 vragen, terwijl er slechts 1% van de gebruikers zijn antwoord vindt na meer dan 50 vragen. (3)
Over die discussie ook meer in ons artikel vandaag in de Oor rubriek
https://www.nytimes.com/2023/02/16/technology/bing-chatbot-t ...
https://www.theverge.com/2023/2/17/23604906/microsoft-bing-a ...
|