Sneak peeks : le laboratoire d'Adobe en clôture de la conférence MAX

Stéphane Ruscher
Par Stéphane Ruscher, Spécialiste informatique.
Publié le 05 octobre 2011 à 09h17
Comme tous les ans, Adobe clôt sa conférence MAX (dont les sessions continuent tout de même toute la journée du mercredi) par les très attendus Sneak Peeks, où les ingénieurs de l'éditeur lève un coin de voile sur leurs futurs projets

0000009604632414-photo-adobe-max-sneaks.jpg
Que fait un participant d'Adobe MAX le mardi soir ? Il se rend aux Sneak Peeks, précédés de la cérémonie des MAX Awards, animés cette année par Rainn Wilson, le Dwight Schrute de la version américaine de The Office, complètement déchainé. On ne s'étendra pas sur les MAX Awards, expédiés par l'intéressé, ni sur la traditionnelle pause « free beer »... L'attendee, lui, s'attardera probablement sur la soirée MAX Bash qui suit mais cela ne nous regarde pas, penchons nous plutôt sur les « sneak peeks », un moment très intéressant de la conférence où les développeurs d'Adobe dévoilent des projets qui verront le jour (ou pas) dans de futurs produits de l'éditeur. Quand ça n'explose pas en route, l'expérience peut s'avérer passionnante, et nous avons sélectionné plusieurs moments qu'un simple compte rendu peine même à restituer fidèlement. Adobe ne propose pas de vidéos officielles de cette « cerise » réservée aux participants, mais les vidéos YouTube captées par l'assistance ne devraient pas tarder à affluer.

01F4000004632486-photo-adobe-max-sneaks.jpg


De vidéos YouTube, il est justement question avec le premier exemple qui consiste à synchroniser, dans Premiere Pro, plusieurs captations d'un même événement (un concert par exemple), afin de réaliser une sorte de mur d'images de l'événement. Pour cela, l'outil réalise une analyse des pistes audio pour les caler, avec un résultat impeccable dans la démonstration, dont nous ne mettrons pas en doute la sincérité, tant d'autres exposés frisent parfois le naufrage en direct. Autre exemple d'analyse audio utilisée cette fois ci dans la post synchro : Rubadub. Derrière ce nom de code se cache une fonctionnalité permettant de recaler une post synchronisation d'une scène trop bruyante, en analysant la piste originale, l'outil calant et étirant la seconde prise afin qu'elle soit synchrone avec la prise de son directe, et donc avec le mouvement des lèvres.

012C000004632418-photo-adobe-max-sneaks-videos-synchro.jpg
012C000004632420-photo-adobe-max-sneaks-videos-rubadub.jpg


On passe à un domaine moins « sexy » à première vue, mais néanmoins intéressant pour la publication de magazines : la notion de « liquid layout » dans Adobe InDesign. Concrètement, elle permet de réaliser, à partir d'une même maquette InDesign, des mises en page portrait et paysage de magazines, sans avoir besoin de créer deux maquettes différentes, sans parler de la nécessité de créer également des versions pour tablettes Android, au format 16:10e différent du 4:3 de l'iPad. La solution a son importance dans la réalisation de versions numériques comme celles que permet de réaliser la Digital Publishing Suite d'Adobe, notamment utilisée par Wired. Gageons que la fonctionnalité devrait trouver sans problème son chemin dans une future version d'InDesign...

01F4000004632422-photo-adobe-max-sneaks-in-design.jpg


On ne se fait pas non plus de souci pour la fonctionnalité de « Picture Unblurring » complètement bluffante, présentée sur la scène du Nokia Theater pour Photoshop. L'an dernier, un outil permettant de corriger les légers flous de mouvement avait déjà été présenté avec succès, mais l'outil expérimental évoqué s'avère encore nettement plus performant, s'il n'y a pas de triche. Epatant et presque incroyable, mais n'oublions pas que le « content aware fill » de Photoshop CS5 avait également fait ses débuts dans les sneak peeks. Wait and see, donc, pour des tests dans des conditions réelles.

012C000004632424-photo-adobe-max-sneaks-picture-unblurring-avant.jpg
012C000004632426-photo-adobe-max-sneaks-picture-unblurring-apr-s.jpg


On terminera par Video Mesh, sans aucun doute LA grosse claque de ces Sneaks 2011. Présenté par un développeur à l'accent français très prononcé, Video Mesh permet de créer une structure en 3D fil de fer du décor d'un plan vidéo (fixe en l'occurence) Une fois la détection réalisée, on peut manipuler la scène en effecutant des travellings avant à l'intérieur du plan fixe (dans la limite de ce qui est visible dans le plan, bien entendu), modifier la profondeur de champ ou la mise au point, manipuler un sujet également analysé et « rotoscopé » pour le déplacer dans la profondeur du plan, en tenant compte des éléments du décor détectés (passage derrière une colonne par exemple, dans l'exemple utilisé), et même réaliser un effet « vertigo » à la manière d'Alfred Hitchcock (travelling arrière doublé d'un zoom avant pour créer une impression de vertige). Une technologie prometteuse qui a laissé pantois l'hôte de la soirée, qui n'a pu se fendre que d'un conseil « Vous allez devenir riche avec ça ! ». L'avenir nous dira si ce Video Mesh, dont les performances étaient tout de mêmes assez lentes sur l'ordinateur utilisé pour la démonstration, se transformera un jour en produit fini...

012C000004632428-photo-adobe-max-sneaks-video-mesh-1.jpg
012C000004632430-photo-adobe-max-sneaks-video-mesh-2.jpg
Stéphane Ruscher
Spécialiste informatique
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles