Zowel Apple als Google rollen nieuwe toegankelijkheidsfuncties uit. Beginnen we met Apple: dat bouwt eye-tracking ondersteuning in zijn camera vooraan op de iPhone en iPad uit, tenminste wanneer die een A12 chip heeft of later. Die houdt dan bijvoorbeeld in het oog wanneer je langer kijkt naar een bepaald menu-item, iets wat Apple "Dwell Control" noemt. De functie probeert je blik te verstaan, en hoe meer je de functie gebruikt, hoe beter hij wordt. De functie werkt ook met apps van derden, vermits het een laag is in het OS, net zoals Assistive Touche.
Een tweede functie bij Apple is dat het haptics (een fysieke bevestiging van het aantikken van het scherm) brengt naar miljoenen songs. Daardoor zullen mensen met gehoorproblemen via de trillingen van hun toestel, naar de muziek kunnen "luisteren", doordat die trillingen gesynchroniseerd zijn met de muziek. (1)
Bij Google gaat het dan weer om Project Gameface. Dat werd verleden jaar voorgesteld op de Google I/O conferentie, en is een handenvrije gaming "muis". Daarmee kan je de cursor van je computer bedienen met de bewegingen van je hoofd en van je gezicht. Dit jaar heeft Google nu aangekondigd dat het meer code van Project Gameface als open source uitbrengt, zodat ontwikkelaars Android apps kunnen ontwikkelen di gebruik maken van deze technologie.
Net als bij Apple wordt gebruik gemaakt van de camera vooraan. Die kan gelaatsuitdrukkingen en hoofdbewegingen noteren, die dan gebruikt kunnen worden om een virtuele cursor te bedienen. En door te glimlachen kan je dan menu's op het scherm selecteren. Of met het optrekken van je linker wenkbrauw kan je terug naar het home-scherm van je Android gaan. Deze controles zijn volledig aanpasbaar. Meer bij Engadget (2)
https://www.engadget.com/apple-brings-eye-tracking-to-recent ...
https://www.engadget.com/googles-project-gameface-hands-free ...
|