Introduction

Durant le travail de création d'Erich von Stroheim, un temps a été réservé afin de mener une réflexion autour de l'interface d'écriture et de contrôle de l'univers vidéo dans un tel dispositif.
L'accompagnement réalisé par didascalie.net avait pour but de protoyper un moteur de rendu vidéo/3D capable de projeter un univers 3D cohérent sur un décor physique.

Scénographie vidéo tri-dimensionnelle

Image
Faire coincider un univers 3D vidéo dans un décor physique demande une reflexion scénographique qui a été menée dans un premier temps afin d'assurer la possibilité de tourner le spectacle dans différents théâtres ayant des gradins et des cages de scènes tous différents. En effet, le point de vue du spectateur doit être le même quel que soit la position de celui-i en regard du décor.
Cette universalité n'étant pas mathématiquement possible, il a fallu trouver un rapport d'angles et d'ouverture pour qu'il n'y ait pas de décalage entre les différentes surfaces de projection selon le point de vue.

Ecriture

L'écriture de telles scènes dont les commandes doivent s'adresser à plusieurs ordinateurs necessite une réflexion sur l'interface d'écriture et sa création de A à Z permettant une réactivité aux ajustements demandés par les acteurs du plateaux, les comédiens et le metteur en scène.
Le metteur en scène Christophe Lemaître et son assistant Luc Chavy étaient présents, afin d'amorcer les créations graphiques par les recherches iconographiques qu'ils avaient menés précédemment ainsi que pour garder un dialogue dramaturgique avec nous. La première volonté était d'utiliser second life comme décor vidéo, mais rapidement les problèmes liées aux spécifications des besoins en terme de connexion au réseau internet ainsi que les spécificités de l'univers (hacking, piratage) ont écarté l'utilisation exclusive de second life. En revanche, une incursion d'image en temps réel de second life n'est pas impossible dans le projet final.
D'autres liaisons avec internet sont également prévues, notemment avec Utube et Xtube. Des séquences filmées en direct pendant le spectacle seront alors automatiquement déposés sur ces sites et les spectateurs pourront ensuite retrouver des scènes d'Erich von Stroheim en ligne.
Les comédiens auront un double 3D (avatar) qui sera présent en projection lors du spectacle. Ces "doubles" virtuels ne seront pas une copie exacte de leur personnages théâtrales mais seront plutôt des rémanences virtuelles de leurs postures intérieures. Il faut donc pouvoir écrire des mouvements de ces avatars 3D tout en pouvant laisse une partie du contrôle aux comédiens pendat un moment du jeu. Les avatars sont réalisés avec le moteur 3D ogre, qui permet une manipulation d'avatar en temps réel avec un résultat très réaliste et fluide. L'écriture des mouvements des avatars doit être préalablement pensées à la table, avec un maximum de précision pour pouvoir permettre ue programmation juste des mouvements avec une liberté de contrôle sur certains déclenchements pouvant être déportés au plateau.
Nous étions deux (David Buff et Renaud Rubiano) à écrire les univers vidéo tri-dimensionnels et à les programmer en terme de contrôle par les comediens. (capteurs posturaux embarqués). Il était primordial de pouvoir essayer des choses sans aller jusqu'à la phase final de programmation pour confirmer les choix esthétiques. 3DSMax a été utilisé dans cet esprit avant une intégration des décors virtuels plus complexes en vue de leur manipulation temps réel.

Contrôle

Une seule personne devra pouvoir piloter le tout (2 ordinateurs) en phase finale, avec une interface multi-tactile de type lemur pour une présentation sur une scène.
Cette interface s'est placée de manière incontournable grâce à la multiplicité des écrans de visualisation et de contrôle qu'elle offre pour pouvoir permettre de changer de scène en changeant la nature des paramètres contrôlés; des faders danss une scène pour contrôler des jeux de transparence, et ensuite des multiballs pour contrôler des positions d'avatars dans l'espace 3D.
Ce type de contrôle a pour l'instant ces limites dans le sens où il ne donne pas de retour haptique sur les inter acteurs que l'on manipule et l'on ne peut donc pas constamment regarder le plateau. Nous attendons des solutions plus évoluées pour pouvoir déporter tous les co,contrôles sur des écrans multi-tactiles.

Environnement logiciel

Le premier travail a été d'intégrer les deux moteurs de rendu 3D dans un même espace de projection.
Ogre est utilsé pour les avatars et les plans de projection vidéos à l'intérieur du monde 3D ainsi que les décors 3D étaient réalisés avec 3DSMax ainsi que MaxMSP Jitter.
Le moteur Ogre a été retenu pour sa fluidité et ses performances ainsi que pour ses possibilités d'intégration dans un environnement modulaire construit avec Max/Msp/Jitter (tapemovie).
Des développements de modules spécifiques ont été fait sur tapemovie en vue de compléter la bibliothèque de modules. Ces développements restent prototypales vu l'étendue du travail mais permettent de cibler les besoins spécifiques et de comprendre la nécessité de toujours customiser son environnement pour un projet aussi complexe et ambitieux.

Conclusion

Un système déporté sur plusieurs ordinateurs et contrôlé à la fois par l'opérateur en régie que par les comédiens sur le plateau (via les capteurs) nécessite une interface spécifique, que ce soit pour l'écriture et le contrôle.
En effet, il est une nécessite que d'adapter les interfaces suivant le projet si celui-ci a des besoins très spécifiques ou suivant le profil de l'utilisateur.
L'espace personnalisé d'écriture et de contrôle doit pouvoir permettre une réactivité sans faille pour rester au plus prêt d'un dialogue possible avec les autres acteurs de la création.