7 februari 2008
Ontwikkelaars hebben sinds kort de beschikking over een open source ontwikkelomgeving voor 'multimodale' gebruikersinterfaces. Dat zijn interfaces die gebruik kunnen maken van meer dan één invoermiddel zoals spraakherkenning, gebaren, gezichtsuitdrukkingen of oogbewegingen. Een Europees onderzoeksconsortium, waaronder het Fraunhofer Institut en de universiteiten van Glasgow en Leuven, heeft rapid prototyping software ontwikkeld voor het bouwen van ‘multmodale' gebruikersinterfaces, OpenInterface. Met deze ontwikkelomgeving kunnen softwaredesigners interfaces bouwen die kunnen reageren op bijvoorbeeld spraakherkenning, gebaren, gezichtsuitdrukkingen of oogbewegingen bij de invoer van gegevens. De software ziet aan de gezichtsuitdrukking dat de gebruiker boos is en verandert daarom de pagina. Uiteraard gaat het vooral om computers qua usability beter geschikt te maken voor mensen met een handicap, maar de mogelijkheden zijn groter. Ook in educatieve of medische software zijn andere invoermogelijkheden erg nuttig, en wat te denken van de games-wereld ?
De onderzoekers die in het open source project participeren hopen dat OpenInterface in de toekomst met nieuwe functionaliteiten wordt uitgebreid, doordat andere software- ontwikkelaars nieuwe plug-ins gaan toevoegen. Het project heeft eveneens een samenwerkingsverband gesloten met het World Wide Web Consortium (W3C>) om webstandaarden te ontwikkelen voor multimodale invoer. Als we naar de website van het OpenInterface-project kijken, dan wordt de doelstelling van het project daar als volgt beschreven: ‘The aim of OpenInterface is to design and develop an open source platform for the rapid development of multimodal interactive systems as a central tool for an iterative user-centred design process’. Al vanaf 1980 zijn wetenschappers actief in het onderzoek naar deze multimodale interactieve systemen, maar als we naar de praktijk kijken dan zijn er slechts zeer weinig apparaten werkelijk gerealiseerd. Een reden daarvoor is dat de kloof tussen wetenschap en bedrijfsleven, vooral waar het gaat om dit soort zeer complexe software, te groot is. Maar zo wordt op de website aangegeven, ‘It is now time to make a step change in the domain of multimodal interaction. This project promises to deliver that change, through the OpenInterface platform'. OpenInterface will provide a clear path for transferring research results to industry by adopting an incremental approach to extending current multimodal standards. The impact of OpenInterface will therefore be to speed up technology transfer between research and industry’. Maar wat betekent dit nu allemaal ? De interface probeert het mogelijk te maken om ongeacht de wijze van invoer software handelingen te laten verrichten. Die het mogelijk maakt oogbewegingen te traceren en op basis daarvan naar een ander scherm te gaan. Of die op basis van een gezichtsuitdrukking kan besluiten dat het beter is het systeem uit te zetten, of (in een spel) weg te hollen, of harder te slaan, of …. vul maar in. Het is niet voor niets dat het ontwikkelen van apparaten op basis hiervan zo verschrikkelijk ingewikkeld is. Spraakherkenning is een functionaliteit die in de praktijk tot nu toe de meeste nadruk heeft gekregen, maar ook hier zijn de resultaten nog niet optimaal. De ontwikkeling van een ontwikkelplatform blijft een belangrijke mijlpaal. Desalniettemin: een echte mijlpaal wordt het pas als werkelijk apparaten multimodaal gaan worden. Dit is een eerste stap. Laten we nu vooral hopen dat het niet de laatste stap is.