Zoals je weet zijn Large Language Models zelf niet creatief, zij kunnen zelf met niets nieuws afkomen, zelf iets uitdenken. Maar zij zijn wel sneller in het itereren - het herhaaldelijk uitvoeren van een proces of handeling, vaak met kleine variaties of veranderingen. In programmeertermen komt dat neer op het herhaaldelijk doorlopen van een reeks instructies of stappen binnen een "loop" om gegevens te verwerken of een specifieke taak uit te voeren.
Zo heeft Deep Mind een LLM gebruikt, dat op de PaLM2 model van Google gebaseerd heeft, en dat FunSearch genoemd. Die geeft als output op problemen die het voorgelegd krijgt snel oplossingen - waarbij het niet kijkt of die accuraat zijn of niet.
Vervolgens ging DeepMind die outputs filteren met gebruik van een tool die de accuraatheid wél evalueerde. Met als resultaat dat de miljoenen foute oplossingen opzij gezet werd. Degenen die veelbelovend leken, werden terug aan FunSearch ingevoerd, om verder verbeterd te worden en opnieuw geëvalueerd.
En kijk: via deze methode kon het systeem een oplossing bedenken voor een wiskundig probleem dat tot nu toe niet opgelost kon worden - het "cap set" probleem. Wie wil weten wat dat is, vindt meer informatie bij Wikipedia. (1) Tot nu toe kon geen enkele mens dat probleem oplossen. Maar deze methode liet toe om een antwoord te vinden tot 512 punten, in 8 dimensies. Technologyreview vertelt er je alles over. (2)
https://en.wikipedia.org/wiki/Cap_set
https://www.technologyreview.com/2023/12/14/1085318/google-d ...
|