Cross-Surface Expressive Gesture Interactions

​Cross-Surface Expressive Gesture Interactions​

L'institut HumanTech cherche à améliorer la qualité de vie et le bien-être des humains grâce à l'utilisation de nouvelles technologies. Il soutient le développement de solutions innovantes promouvant l'implantation du concept « Smart Society », une coévolution de la technologie et de la société. Plus d'infos : http://humantech.institute

Ce projet a été réalisé en collaboration avec le groupe ExSitu du Laboratoire de Recherche en Informatique de Paris. Les interactions homme-machine (Human Computer Interaction) sont actuellement dans une phase où ils ne suivent plus l'avancée technologique des techniques d'interactions. En effet, beaucoup de nouvelles façons d'interagir ont été créées, dépassant les modèles classiques utilisés jusqu'à maintenant. Plusieurs recherches sont menées afin d'expérimenter de nouveaux modèles pour répondre aux difficultés que posent les récentes techniques d'interactions.

Les techniques d'aujourd'hui, comme le « Drag-and-Drop », permettent de bonnes interactions avec de petits écrans. L'équipe de recherche explore de nouvelles interactions possibles avec des écrans muraux. Une de celles-ci est la méthode « Pick-And-Drop ». Actuellement, les utilisateurs détiennent de plus en plus plusieurs appareils qu'ils utilisent en même temps. Il est toujours compliqué de transférer des objets facilement entre les appareils. « Pick-And-Drop » veut simplifier ces transferts à l'aide d'un stylo électronique. En cliquant sur l'écran avec le stylo, les données sont sélectionnées. Il faut par la suite simplement cliquer à nouveau sur l'écran de l'autre appareil pour transférer les données. « Situated Information Spaces » est une autre méthode utilisée dans ce projet. Elle observe que les stations de travail ne sont pas adaptées pour la visualisation de larges échantillons de données. Selon cette méthode, le monde physique et électronique devrait être connectés. Par exemple, en pointant un appareil portatif sur une carte, le système devrait nous retourner des informations sur une ville.

Concrètement, les deux techniques ont été adaptées pour être opérationnelles sur l'écran mural. Ce dernier dispose déjà de deux éléments essentiels : des caméras infrarouges permettant le tracking d'objets et un support tactile pour interagir avec l'écran. De plus, une « cross-plateform » est utilisée comme moyen interactif entre l'utilisateur et l'écran mural. Le « Pick-And-Drop » consiste à faire interagir des « web-controllers » avec l'écran qui est en fait le système reconnaissant un pointeur. Les « webs-controllers » interagissent également entre eux. La deuxième technique « Situated Information Spaces » se traduit par une augmentation de l'interface lorsqu'on se rapproche de l'écran avec le pointeur. Inversement, l'interface se réduit lorsque l'utilisateur s'en éloigne. Afin de connaître leur efficacité, des tests utilisateurs ont été effectués. Les participants ont dû déplacer des images à l'aide du pointeur ainsi que rechercher des informations précises sur une page web.

Le système contient encore quelques bugs. Cependant, les testeurs ont trouvé les techniques utiles et cohérentes !


Keywords

​​Interactions, Human-Computer, Pick And Drop, Situated Information Spaces​​

Outcomes

Website of the project

 

Project Information