| Home | Archief nieuwsbrief | Abonnement | Wie zijn wij ? | Contact | Adverteren |
Nieuwsberichten van 11/03/2024
[Nieuws]Een blik achter de schermen van AI
[Nieuws]X zou streaming app gaan lanceren
[Nieuws]Wetenschappers vragen dat AI geen biowapens m...
[Hardware]Chrome 21 maakt van elke website een app als ...
[Oor]Podcast: Something was wrong
[Site]ChatGPT Cheat Sheet
[Site]Prompt Database voor AI: Gratis database van ...
[Software]BeScene: voor filmmakers
De meeste populaire reacties
[14]Vragen van de lezers ...
[9]Vragen van de Netties-lezers ...
[8]Vrijdag alternatieve OS: Ubuntu 9.1 ...
[7]Netties vraagt hulp lezers bij oplo ...
[7]Linux - Deel 1 - Een korte inleidin ...
De meeste recente reacties
Tip: hoe kan je een foute Facebook posting me ...
Snapmail: zelf-vernietigende mails ...
De ene site om YouTube filmpjes naar MP3 om t ...
GDPR: Europa tracht de burger te beschermen ...
Robocops patrouilleren al in de straten ...
Zoeken met Google 


Reclame 

Volledig artikel

Een blik achter de schermen van AI
Hoe werkt AI eigenlijk? En is het slim? MIT Technology Review bracht hierover een erg interessant artikel, onder de titel: "Large language models kunnen verbazingwekkende dingen doen. Maar niemand weet echt waarom".

Bij DTNS vonden wij een uitstekende samenvatting van het artikel. Het is namelijk zo dat we ondertussen wel weten wat de LLM's kunnen doen - het zijn gewoon grote taalmodellen, en de AI "raadt" het volgende woord in een zin. Maar waarom de AI die wonderbaarlijke dingen kan, blijft een raadsel. Want het is niet zozeer dat er echt een groot plan achter steekt om die AI aan te sturen, als wel dat het een zaak is van "trial & error". Wetenschappers keken gewoon naar wat er al werkt, en experimenteerden dan met dingen waarvan zij denken dat die de resultaten nog kunnen verbeteren. De dingen die niet werkten werden opzij geschoven, en wat wel werkte, werd behouden. Maar het is puur experimenteel, er zit geen theorie achter.

Die grote taalmodellen worden dus op grote hoeveelheden data getraind, en op een of andere manier slagen zij erin om die data te veralgemenen naar andere data. Een complexe versie van wat de Markov Chain genoemd wordt (1). Een proces dat er wonderwel goed in slaagt om te voorspellen wat er nu moet volgen, zoals we al vertelden. Maar de AI kan meer: je traint hem bvijvoorbeeld op Engelse voorbeelden, maar hij verstaat ook Frans. En we weten niet waarom, we weten alleen dat het werkt. En hoe langer er wordt getraind op die data, hoe beter de AI werkt.

Maar alleen tot een zeker punt - een statistisch principe dat "overfitting" heet. Heel kort de bocht kan je stellen dat een model té nauwkeurig wordt door de data waarmee het gevoed wordt, zodat het niet meer kan generaliseren. Denk bijvoorbeeld aan het weerK; Wanneer je de temperatuur en de dag noteert, dan kan je met amper een handvol voorbeelden verspreid over het jaar, een curve trekken die dan zal tonen dat er hogere temperaturen zijn in de zomer en koudere in de winter. Maar met veel meer data, wanneer je bijvoorbeeld zou uitgaan van de temperatuur van uur tot uur, dan krijg je een curve die elke dag op en neer gaat , en kan je de temperatuur van de seizoenen niet zien. Tenzij je terug uitzoomt, dan wordt het gemakkelijker om te voorspellen hoe warm het zou zijn op een bepaalde dag. Dat is, heel kort door de bocht, het fenomeen van overfitting uitgelegd door DTNS: hoe meer data, hoe beter, tot op het punt dat je te veel data hebt

Alleen... de AI blijkt dat principe van overfitting overgeslagen te hebben. In het artikel wordt het voorbeeld gegeven van wetenschappers bij OPenAI die probeerden om een model correct te laten rekenen. Het model leerde dat 1 + 1, 2 was, en 2 + 2, 4, maar kon niet 1 +2 optellen. Het kon de sommen maken waarvoor het opgeleid was, maar kon niet generaliseren naar nieuwe sommen. Tot op een dag dat ze per ongeluk vergaten om het traininproces af te zetten wanneer het aan zijn overfitting limiet kwam. Het model ging door die limiet en werd daarna beter, en kon zelfs sommen maken waarvoor het niet getraind was.

Andere wetenschappers merkten hetzelfde fenomeen op - wat zij "grokking" noemden. En wat gelijkaardig is aan een ander fenomeen, "double descent". Dat is wanneer de grootte van een model over verloop van tijd eerst de fouten vermindert, dan verhoogt, en dan weer verlaagt.

Nu blijft nog altijd de vraag: waarom? We weten het niet. En sommige wetenschappers proberen dat met experimenten uit te zoeken. Net zoals wetenschappers proberen uit te vinden hoe fysica werkt.

https://en.wikipedia.org/wiki/Markov_chain
https://en.wikipedia.org/wiki/Overfitting
https://www.technologyreview.com/2024/03/04/1089403/large-la ...
geef uw reactie hier

  
Archief per categorie

Nieuws
Threads: fact checking, politieke conten... 17/05
Meta: onderzoek door de EU en het einde ... 17/05
Meta: is de Travel Mode voor de Quest ni... 17/05
Nu AI vooraan staat bij search, verdwijn... 16/05
Google: nieuwe zoekfilter 'web' ... 16/05
Nieuwe Belgische virtuele wallet wordt s... 16/05
Google I/O: kan het imponeren?... 15/05
Google I/O: een korte opsomming van de n... 15/05
Hoera: eindelijk gezamenlijke standaard ... 15/05
Nieuwigheden van OpenAI, waarbij ChatGPT... 14/05
Meer artikels ....
Hardware
Nieuwe toegankelijkheidsfuncties bij App... 16/05
Wat heeft de aurora borealis te maken me... 14/05
AFib functie op Apple Watch krijgt als e... 08/05
Hugging Face lanceert LeRobot codebiblio... 07/05
Wet verbiedt in VK gemakkelijke wachtwo... 06/05
Update voor slimme bril Ray-Ban Meta ... 25/04
Open Home Foundation moet open standaard... 23/04
Menteebot: een robot zo groot als een me... 22/04
Meta wil de Quest in het klaslokaal... 18/04
Nieuwe interfaces bedenken: AI pin bewij... 17/04
Meer artikels ....
Oor
All-In Podcast sprak met Sam Altman... 14/05
Spotify: exclusiviteit loont blijkbaar n... 13/05
Lumi?re stopt met streaming dienst MyLum... 10/05
HBO Max richt zich rechtstreeks tot de B... 08/05
Apple verwerpt update van Spotify... 26/04
Amazon Maestro: AI speellijst... 17/04
Podcast: Napleiten... 15/04
RIP Google Podcast... 03/04
Oproep: doneer je muziek streaming data... 02/04
Spotify: voortaan ook cursussen... 26/03
Meer artikels ....
Site
Actorle: Wordle voor acteurs... 17/05
Open Source Alternatives... 17/05
SurnameMap: familienamen... 16/05
WikiNewsFeed... 16/05
Killed by Microsoft... 15/05
Back of your hand: hoe goed ken jij de s... 15/05
404 Page Found... 14/05
World History Encyclopedia... 14/05
Alternatives Num?riques... 13/05
Formula Bot... 13/05
Meer artikels ....
Tip
Evernote: zo laat je die vervelende Slas... 15/05
Verborgen Emoji Game in Instagram... 08/05
Apple watch Faces: wat is het en hoe ins... 19/04
Google Photos update: leuke AI nieuwighe... 02/04
Netflix: ontdek meer titels... 20/03
Firefox: binnenkort tab previews... 18/03
Bekijk op je iPhone waar jij je foto s n... 13/03
Zo zet je Gemini als je standaard assist... 04/03
Zo maak je een avatar die je document vo... 28/02
Leren dankzij AI met gebruik van YouTube... 26/02
Meer artikels ....
Software
TopNotify: meldingen... 17/05
Librewolf: versie van Firefox... 16/05
Gamma: PS1 emulator voor de iPhone... 15/05
YSFlight: vluchtsimulator... 14/05
Podwalks app... 13/05
HEIC naar JPG, JPEG, PNG... 10/05
Accurate OCR... 08/05
Telegram voor Windows... 07/05
Arc Browser: nu ook voor Window... 06/05
Boom App... 26/04
Meer artikels ....
(c) www.netties.be 1.0 -- hosting & programmatie www.webdynamics.be (c)