Wat wij leerden uit de aflevering van deze week:
-AI gebaseerd op LLM (large language models) is onbetrouwbaar want je weet niet wat het antwoord is dat de AI gaat geven.
-Dergelijke AI baseert zich ook niet op feiten maar op de waarschijnlijkheid dat het ene woord het andere opvolgt, zoals bij tekstvoorspelling op je smartphone.
-Bedrijven gaan deze AI niet willen aanbieden zonder een filter erop te zetten, om bepaalde antwoorden (racisme, seksisme, enz. te vermijden.
-Filters zijn bedacht door programmeurs, met hun eigen vooroordeel.
-Google had al veel langer zijn AI technologie,die het verleden week voorstelde onder de naam BARD, maar was bang om die publiek voor te stellen, omwille van die ongewilde resultaten.Het debacle met het toeschrijven van bepaalde foto's aan de Webb telescoop bewijst het. Maar opgejaagd door Microsoft heeft het dat toch nog gedaan.
-Section 230: over de aansprakelijkheid van zoekmachines, sociale media over de content die gebruikers daar zelf plaatsen. Section 230 was oorspronkelijk bedoeld om diensten zoals YouTube te beschermen bij user generated content en stelde dat die webdiensten geen uitgever waren, enkel een doorgeefluik. Maar nu deze diensten met hun algoritmes sturen welke content jij ziet, gaat die vlieger niet meer op: steeds meer worden deze webdiensten gezien als uitgevers. Het vraagt wel een uur tijd om alles te beluisteren, maar een uur waarin je heel veel inzichten krijgt. Een aanrader!
https://www.allinpodcast.co/
|