Niet alle berichten over OpenAI en andere artificiële toepassingen zijn rozengeur en maneschijn. Zo wijst TechCrunch erop dat een recente update aan ChatGPT heel wat gevolgen heeft voor het start-up ecosysteem, en dan in het bijzonder voor "wrapper start-ups" - bedrijven die hun businessmodel opgebouwd hebben rond een mogelijkheid die (nog) niet aangeboden werd door ChatGPT. Zij gebruiken de API en de technologie van ChatGPT en bekleden die dan met een dienst die nog niet bestond via de API.
Concreet ging het over de mogelijkheid om een PDF te uploaden en daar vragen over te stellen. Wat sinds de nieuwe update van ChatGPT ingebakken zit in de tool zelf, zodat ontwikkelaars die dit als "wrapper" aanboden, nu zonder werk zitten. Een risico dat altijd bestaat en bestaan heeft: wanneer je iets aanbiedt dat gebaseerd is op de technologie van een ander, dan kan het zijn dat jouw "unique selling proposition" met één klap overbodig wordt, wanneer die technologieprovider zelf die feature gaat aanbieden (1)
Een tweede kanttekening over ChatGPT betreft hallucinaties: de AI gaat zelf dingen bedenken die daarom niet waar zijn. Hou daarbij in het achterhoofd dat een tool zoals ChatGPT niets "weet", maar enkel woorden naast elkaar zet, waarvan hij door de Large Language Modellen weet dat die bij elkaar horen.
Wanneer je dan AI gaat mengen met Search, dan kan je foutieve resultaten krijgen. En hoe meer door AI aangemaakte teksten op het web staan, hoe groter de kans op die fouten. Daarover een interessant artikel bij The Atlantic (2).
Er wordt trouwens onderzoek gedaan naar die "hallucinaties" bij ChatGPT en Co. Het bedrijf Vectara heeft een open source tool uitgebracht dat hallucinaties moet ontdekken en berekenen in de grootste Large Language Modellen. En het is goed om die resultaten in het oog te houden! (3)(4)
https://techcrunch.com/2023/11/06/get-the-pdf-outta-here/?tp ...
https://www.theatlantic.com/technology/archive/2023/11/googl ...
https://vectara.com/measuring-hallucinations-in-rag-systems/
|