La référence des professionnels
des communications et du design

L'avenir du numérique? Les écosystèmes «responsifs»

Jean-Pascal Mathieu directeur de l'innovation, Nurun

Nous sommes de plus en plus nombreux à disposer de multiples appareils connectés et à interagir avec des environnements eux-mêmes connectés. Le fantasme de l’appareil ultime et unique a vécu, même si l’essor exponentiel des «phablets», ces téléphones qui ressemblent à des petites tablettes, montre que certains utilisateurs cherchent à réduire le nombre (et le poids!) des appareils qu’ils traînent toujours avec eux.

Il existe de plus en plus de fonctions assez sophistiquées de «responsive design», impactant l’agencement des contenus, mais aussi les contenus eux-mêmes. Une nouvelle peut par exemple être traitée différemment, forme et fond, si elle est vue sur un appareil portable ou sur un écran d’ordinateur. Les fonctionnalités de type «content everywhere» permettent même de retrouver son contenu là où on l’a laissé en changeant de contexte, donc d’appareil (mon film ou mon livre électronique du salon à l’autobus…). Mais la plupart du temps, nos appareils agissent et réagissent en silo, c’est-à-dire que leur contenu et leur fonction ne s’adaptent pas au fait qu’ils sont plusieurs au même endroit et au même moment.

Du «responsive design» aux «écosystèmes responsifs». 

Des utilisations commencent à émerger tenant compte de la concordance des temps. Par exemple, les téléspectateurs ont bien compris qu’ils pouvaient twitter tout en regardant la télévision. De là sont nées les applications télé dites de «second écran». Dans certains magasins, il est possible d’employer son portable comme télécommande du contenu des écrans géants. 

Mais une entreprise émergente repérée par Technology Review du MIT, ConductR, montre comment le concept «d’écosystème responsif» peut nous mener beaucoup plus loin. Dans un film tourné sur un salon à Munich, le fondateur explique sur l’exemple d’une présentation de type PowerPoint comment la présence de multiples appareils (écran principal, téléphone, montre et lunettes connectées) devrait logiquement et en temps réel amener chacun d’eux à assumer une fonction différente qui dépend de la disponibilité ou non des autres. 


Si seuls l’écran et le téléphone sont allumés, l’écran va naturellement prendre en charge le contenu visible de la présentation, et le téléphone la fonction de commande d’avancement vers la diapo suivante, de gestion du temps et d’affichage des commentaires de l'orateur. S’il y a une montre connectée dans le tableau, elle va s’occuper du temps, et s’il y a des lunettes, elles vont «prendre» l’affichage des commentaires. L’exemple est un peu caricatural, mais démontre parfaitement la force du concept.

Demain, nous n’aurons plus à réfléchir au qui fait quoi. Les concepteurs d’interfaces nous proposeront «naturellement» la meilleure combinaison disponible pour faire ce que nous voulons, que ce soit twitter en regardant la télévision, programmer le four en suivant une recette ou conduire en étant accompagné par un GPS.

comments powered by Disqus