Toen Apple en Columbia University in oktober een open source multimodale LLM uitbrachten -dus een Large Language Model dat zowel afbeeldingen, spraak als tekst aankan - trok dat niet veel aandacht in de pers. Maar dat verandert nu, omdat er recent een tendens valt waar te nemen, om LLM's naar mobiele toestellen te brengen. Denk aan het Gemini model van Google, dat naar de Pixel Pro en later naar de Android komt.
En daarom is er nu meer persbelangstelling voor de aankondigng van Apple dat het een grote doorbraak heeft, bij de toepassing van LLM's op iPhones. Apple heeft namelijk twee nieuwe research papers voorgesteld, waarin nieuwe technieken voor 3D avatars behandeld worden. Die vooruitgang zou het mogelijk maken immersieve visuele ervaringen mogelijk te maken, en ook zouden zo complexe AI systemen niet langer in de cloud moeten draaien, op peperdure servers, maar wel op gewone consumententoestellen zoals de iPhone en iPad.
En daarmee is dan meteen een nieuwe term geboren: de LLLm's, of Local Large Language Models, die plaatselijk op gewone toestellen kunnen draaien.
https://venturebeat.com/ai/apple-quietly-released-an-open-so ...
|