Retour sur la 11ème édition de Laval Virtual

Comme l’année dernière, je me suis rendu au festival Laval Virtual avec mon ami Hugobiwan. Comme l’année dernière, nous avons eu la chance de voir des idées innovantes concrétisées par des projets très intéressants. Petit retour des expériences les plus marquantes :

Laval VRchive

Tokyo Metropolitan University / Photon, Inc

Commençons donc par le premier stand qui attira mon attention. Utilisant Second Life (première fois que je vois le soft en exploitation à Laval Virtual), ce projet interactif vous propose de consulter une photothèque collaborative dans un environnement en 3D (ils utilisent aussi Google Earth). En cliquant sur un des cubes volants dans l’espace numérique, ce cube vient se positionner autour de votre avatar afin de vous procurer une sensation d’immersion plus intensive et plus réaliste de la scène photographiée. Ce projet se rapproche fortement du projet VRR (Virtual Reality Room) de Stéphane Desnault, aka Stephane Zugzwang. Le tout est piloté à la Wiimote, qui devient le périphérique de contrôle incontournable. Notons d’ailleurs que l’un des deux acteurs du projet rédige actuellement un livre sur toutes les utilisations possibles de la wiimote (softs, codes, etc.).

Slurl du projet : http://slurl.com/secondlife/nikkeibp/168/76/76

La flèche de l’odeur

Kanazawa Technical College

Imaginez un éthylomètre en guise de viseur dans un FPS où l’haleine est votre seule munition ! Reprenons… Dans une main, un tube avec embout que vous allez placer dans votre bouche. Devant vous, une table avec des boissons et différents condiments, puis un écran contre le mur. Le but du jeu est de tuer les monstres que vous voyez à l’écran avec comme interface de contrôle le tube en partie constitué d’une Wiimote. Pourquoi donc placer ce tube dans votre bouche ? Car il est relié à un système de reconnaissance olfactif. Pour tuer un vampire, il faut donc le viser, mais également manger de l’ail !
Vous devez par exemple manger un gâteau apéritif « un peu fort en bouche » pour ensuite souffler dans le tube tout en visant un vampire. A chaque monstre correspond des condiments spécifiques, et lorsque vous n’arrivez plus à suivre, la table vous indique (par vibrations ou par diodes s’allumant) quel aliment prendre (eau, vin, gâteau, bonbons, chocolats, etc…).
Je n’avais jamais entendu parler d’un tel dispositif et si je n’ai pas pu tester réellement la pertinence condiments/monstres, ma piteuse intervention aura néanmoins eu le bénéfice de faire rire le public présent, puisqu’en bon dernier, j’ai eu le droit au qualificatif « d’haleine de putois » pour m’indiquer mon classement.



MDS (Mobile Social Dexterus) Robot

M.I.T – MediaLab

« The Personal Robots Group » du MIT expose un robot humanoïde mobile et de petite taille alliant mobilité, habilité et capacités de communication et d’interactions évoluées. Je n’ai pas eu l’occasion de voir bouger le robot dans l’espace qui lui était alloué, ni de le voir prendre des objets. Je ne peux donc aborder la question de la mobilité et de l’habilité en profondeur, même si le simple déplacement des mains impressionne par sa fluidité.
Se retrouver face à un bijou technologique de ce type impressionne, car il ne faut pas être expert en mécanique pour savoir admirer un tel travail. Alors on s’approche, on regarde le robot bouger les mains et puis il vous regarde à son tour. Intrigué, déstabilisé, vous tentez de regarder ailleurs, mais lui vous fixe et soudainement vous parle. Il vous explique qu’il est capable de reproduire de nombreuses expressions du visage. « Les bouts de plastiques », les caméras vidéo, les capteurs et pistons s’animent pour vous reproduire le regard angélique de Wall-E avant de manifester la robustesse d’un Terminator puis la malice d’un Joker. Le plus perturbant dans ce face à face n’est pas les émotions que le robot essaye de faire paraître, mais les émotions que vous ressentez à le regarder, le fait que cette carcasse blanche arrive finalement à vous faire sourire pour mieux vous faire peur.



Babbage Cabbage : Empathic Biological Media

Mixed Reality Lab, National University of Singapore

Le projet est simple, et d’autant plus efficace. Il utilise des organismes vivants comme interfaces permettant de contrôler la qualité de notre environnement. N’oublions pas que par le passé (du moins pour nos sociétés « contemporaines »), la nature était notre principale source d’information : la chute des feuilles signifiant par exemple le temps de la récolte.

Ce projet a pour but de remettre l’émotion au centre de nos préoccupations. Voir des images d’usines qui polluent ne nous touche plus vraiment, alors que voir son propre légume pourrir à cause de cette même pollution est beaucoup plus pertinent.
Ainsi, si l’on pulvérise une eau acide (eau à laquelle on ajoute du jus de citron) sur un chou il devient rouge. Le système qui est relié au système d’irrigation évalue alors le pH qu’il y a dans l’eau pulvérisée et ajuste avec un pH opposé (eau de chaux) pour redonner « vie » au chou.

Mais le dispositif va plus loin puisqu’il est possible d’attribuer n’importe quelle donnée à votre système et de lui donner une correspondance avec un pH. Imaginons un capteur posé sur votre peau qui prendrait votre température. Relié à l’ordinateur, le capteur indiquerait par exemple que vous êtes fiévreux. Le système délivrerait alors une dose d’eau acide au chou qui deviendrait rouge…



Projet GAMME (Guide Augmenté Mobile pour les Musées et Expositions)

Pôle de Compétitivité Images & Réseaux

C’est un système de réalité augmentée à reconnaissance visuelle et non à géolocalisation GPS. Le système reconnaît une oeuvre dès que vous pointez votre écran de votre Pc ultra-mobile devant (sur téléphones mobiles en 2010). Des données multimédias et un avatar viennent agrémenter votre visite culturelle de multiples explications et renseignements sur la toile, l’auteur, la technique, etc. Si le système de reconnaissance optique est bien plus lourd à supporter qu’un système à localisation GPS, il ne demande qu’une première reconnaissance de l’objet (une photo par exemple) pour ensuite le reconnaître peu importe où il se situe.
Si le projet a pris un peu de retard, le musée des Beaux-Arts de la ville de Rennes devrait proposer avant la fin de l’années des visites augmentées sur PC ultra-mobile au public, ceci afin de disposer, au plus tôt, de retours des usagers. Mi-2010, l’expérimentation de ce «guide augmenté mobile» se fera sur un téléphone nouvelle génération des années 2009-2010. Un matériel plus petit, doté de moins de puissance et donc générateur de contraintes ergonomiques et techniques.

Volume Slicing Display

University of Tokyo, Ishikawa Komuro Laboratory

Ce dispositif vous permet de naviguer dans une figure virtuelle à l’aide d’une simple tablette ou vitre. Une image que vous choisissez, ici une image 3D médicale d’une tête humaine, est projetée par le bas. Ainsi, au lieu de se déplacer dans une simulation 3D d’une tête humaine grâce à un ordinateur, vous le faites dans l’espace, en tournant votre tablette pour gérer l’inclinaison, en zoomant sur une zone que vous voulez. Transposable pour d’autres secteurs que la médecine, transportable par la légèreté du dispositif, ce projet est très intéressant.



LevelHead

Julien Olivier

Projet connu par les multiples vidéos sur Internet, la simple satisfaction de pouvoir l’essayer et de pouvoir discuter avec l’un de ces concepteurs. Projet alliant réalité augmentée et mémorisation de l’espace d’une scène à l’autre.



Imprimantes 3D

3D avenir

Pas de grand discours pour ce stand mais l’admiration de voir fonctionner une imprimante 3D autrement que par l’intermédiaire de vidéos. Inspirée de la technologie jet d’encre, la machine imprime sur un « lit de poudre », et par couches successives, les sections du modèle prédéfini (un fichier 3D). La reine du salon, la Z650, imprime désormais en couleur et en « qualité photo » ! C’est en effet très impressionnant, et particulièrement bluffant. Si la démocratisation du marché des imprimantes 3D va prendre un essor considérable selon les personnes de 3D avenir, notons que leur modèle de base avoisinerait tout de même les 20.000€ (ce que je crus entendre d’une oreille baladeuse).

Rapporté à la ville, un tel dispositif devient très intéressant puisqu’il n’y a plus besoin de maquetter un projet 3D pour le rendre palpable, il suffirait maintenant de l’imprimer.

Crédits image : 3davenir