| Home | Archief nieuwsbrief | Abonnement | Wie zijn wij ? | Contact | Adverteren |
Nieuwsberichten van 11/03/2024
[Nieuws]Een blik achter de schermen van AI
[Nieuws]X zou streaming app gaan lanceren
[Nieuws]Wetenschappers vragen dat AI geen biowapens m...
[Hardware]Chrome 21 maakt van elke website een app als ...
[Oor]Podcast: Something was wrong
[Site]ChatGPT Cheat Sheet
[Site]Prompt Database voor AI: Gratis database van ...
[Software]BeScene: voor filmmakers
De meeste populaire reacties
[14]Vragen van de lezers ...
[9]Vragen van de Netties-lezers ...
[8]Vrijdag alternatieve OS: Ubuntu 9.1 ...
[7]Netties vraagt hulp lezers bij oplo ...
[7]Linux - Deel 1 - Een korte inleidin ...
De meeste recente reacties
Tip: hoe kan je een foute Facebook posting me ...
Snapmail: zelf-vernietigende mails ...
De ene site om YouTube filmpjes naar MP3 om t ...
GDPR: Europa tracht de burger te beschermen ...
Robocops patrouilleren al in de straten ...
Zoeken met Google 


Reclame 

Volledig artikel

Een blik achter de schermen van AI
Hoe werkt AI eigenlijk? En is het slim? MIT Technology Review bracht hierover een erg interessant artikel, onder de titel: "Large language models kunnen verbazingwekkende dingen doen. Maar niemand weet echt waarom".

Bij DTNS vonden wij een uitstekende samenvatting van het artikel. Het is namelijk zo dat we ondertussen wel weten wat de LLM's kunnen doen - het zijn gewoon grote taalmodellen, en de AI "raadt" het volgende woord in een zin. Maar waarom de AI die wonderbaarlijke dingen kan, blijft een raadsel. Want het is niet zozeer dat er echt een groot plan achter steekt om die AI aan te sturen, als wel dat het een zaak is van "trial & error". Wetenschappers keken gewoon naar wat er al werkt, en experimenteerden dan met dingen waarvan zij denken dat die de resultaten nog kunnen verbeteren. De dingen die niet werkten werden opzij geschoven, en wat wel werkte, werd behouden. Maar het is puur experimenteel, er zit geen theorie achter.

Die grote taalmodellen worden dus op grote hoeveelheden data getraind, en op een of andere manier slagen zij erin om die data te veralgemenen naar andere data. Een complexe versie van wat de Markov Chain genoemd wordt (1). Een proces dat er wonderwel goed in slaagt om te voorspellen wat er nu moet volgen, zoals we al vertelden. Maar de AI kan meer: je traint hem bvijvoorbeeld op Engelse voorbeelden, maar hij verstaat ook Frans. En we weten niet waarom, we weten alleen dat het werkt. En hoe langer er wordt getraind op die data, hoe beter de AI werkt.

Maar alleen tot een zeker punt - een statistisch principe dat "overfitting" heet. Heel kort de bocht kan je stellen dat een model té nauwkeurig wordt door de data waarmee het gevoed wordt, zodat het niet meer kan generaliseren. Denk bijvoorbeeld aan het weerK; Wanneer je de temperatuur en de dag noteert, dan kan je met amper een handvol voorbeelden verspreid over het jaar, een curve trekken die dan zal tonen dat er hogere temperaturen zijn in de zomer en koudere in de winter. Maar met veel meer data, wanneer je bijvoorbeeld zou uitgaan van de temperatuur van uur tot uur, dan krijg je een curve die elke dag op en neer gaat , en kan je de temperatuur van de seizoenen niet zien. Tenzij je terug uitzoomt, dan wordt het gemakkelijker om te voorspellen hoe warm het zou zijn op een bepaalde dag. Dat is, heel kort door de bocht, het fenomeen van overfitting uitgelegd door DTNS: hoe meer data, hoe beter, tot op het punt dat je te veel data hebt

Alleen... de AI blijkt dat principe van overfitting overgeslagen te hebben. In het artikel wordt het voorbeeld gegeven van wetenschappers bij OPenAI die probeerden om een model correct te laten rekenen. Het model leerde dat 1 + 1, 2 was, en 2 + 2, 4, maar kon niet 1 +2 optellen. Het kon de sommen maken waarvoor het opgeleid was, maar kon niet generaliseren naar nieuwe sommen. Tot op een dag dat ze per ongeluk vergaten om het traininproces af te zetten wanneer het aan zijn overfitting limiet kwam. Het model ging door die limiet en werd daarna beter, en kon zelfs sommen maken waarvoor het niet getraind was.

Andere wetenschappers merkten hetzelfde fenomeen op - wat zij "grokking" noemden. En wat gelijkaardig is aan een ander fenomeen, "double descent". Dat is wanneer de grootte van een model over verloop van tijd eerst de fouten vermindert, dan verhoogt, en dan weer verlaagt.

Nu blijft nog altijd de vraag: waarom? We weten het niet. En sommige wetenschappers proberen dat met experimenten uit te zoeken. Net zoals wetenschappers proberen uit te vinden hoe fysica werkt.

https://en.wikipedia.org/wiki/Markov_chain
https://en.wikipedia.org/wiki/Overfitting
https://www.technologyreview.com/2024/03/04/1089403/large-la ...
geef uw reactie hier

  
Archief per categorie

Nieuws
Apple Event: nieuwe iPads en accessoires... 08/05
Apple Event: updates van populaire softw... 08/05
Tool van OpenAI kan zien of afbeelding m... 08/05
YouTube laat je met AI springen naar de ... 07/05
Stories on X: een AI versie van Twitter ... 07/05
Apple stelt zijn CTF bij... 07/05
Anthropic nu als mobiele app... 06/05
GDPR klacht tegen OpenAI... 06/05
Threads: voortaan bepaal jij wie jouw te... 06/05
Even zonder netties... 30/04
Meer artikels ....
Hardware
AFib functie op Apple Watch krijgt als e... 08/05
Hugging Face lanceert LeRobot codebiblio... 07/05
Wet verbiedt in VK gemakkelijke wachtwo... 06/05
Update voor slimme bril Ray-Ban Meta ... 25/04
Open Home Foundation moet open standaard... 23/04
Menteebot: een robot zo groot als een me... 22/04
Meta wil de Quest in het klaslokaal... 18/04
Nieuwe interfaces bedenken: AI pin bewij... 17/04
Nieuwe ereaders van Rakuten Kobo... 12/04
Google Next: nieuwe Axion chips voor de ... 11/04
Meer artikels ....
Oor
HBO Max richt zich rechtstreeks tot de B... 08/05
Apple verwerpt update van Spotify... 26/04
Amazon Maestro: AI speellijst... 17/04
Podcast: Napleiten... 15/04
RIP Google Podcast... 03/04
Oproep: doneer je muziek streaming data... 02/04
Spotify: voortaan ook cursussen... 26/03
Neil Young keert terug naar Spotify... 15/03
Spotify lanceert muziekvideo... 14/03
Podcast: Something was wrong... 11/03
Meer artikels ....
Site
Plaintext Productivity... 08/05
Zoom Quilt... 08/05
Git Branching... 07/05
KoiPond... 07/05
Weird Old Book Finder... 06/05
Tralcu: reizen met een budget... 06/05
Meldpunt Drugsplantage Ontdekt... 26/04
Two Seven: samen kijken... 26/04
Be Smart: hoe ons brein ons laat geloven... 25/04
Well Tempered Traveler: temperatuur... 25/04
Meer artikels ....
Tip
Verborgen Emoji Game in Instagram... 08/05
Apple watch Faces: wat is het en hoe ins... 19/04
Google Photos update: leuke AI nieuwighe... 02/04
Netflix: ontdek meer titels... 20/03
Firefox: binnenkort tab previews... 18/03
Bekijk op je iPhone waar jij je foto s n... 13/03
Zo zet je Gemini als je standaard assist... 04/03
Zo maak je een avatar die je document vo... 28/02
Leren dankzij AI met gebruik van YouTube... 26/02
Wat moet je doen als je iPhone per ongel... 22/02
Meer artikels ....
Software
Accurate OCR... 08/05
Telegram voor Windows... 07/05
Arc Browser: nu ook voor Window... 06/05
Boom App... 26/04
Audacity 3.5: nieuwigheden... 25/04
Erfgoed App... 24/04
WinToys: sleutelen... 23/04
Edison Mail: mailclient... 22/04
LocalSend: bestanden verzenden... 19/04
AirChat: Twitter maar dan met spraak... 18/04
Meer artikels ....
(c) www.netties.be 1.0 -- hosting & programmatie www.webdynamics.be (c)