mercredi 23 février 2011

Projet VJ/DJ avec Sylvain Couzinet-Jacques 2

La suite du projet VJ/DJ avec Sylvain Couzinet-Jacques donc. La partie VJ est terminée (en attente de nouveautés qui viendront à l'usage...). Deux contrôleurs MIDI y sont consacrés: un Launchpad de Novation et un TotalControl de Numark. Le launchpad permet de sélectionner le mode de présentation, c'est-à-dire le nombre de blocs de l'écran de présentation qui, rappelons-le, ne peuvent contenir qu'une seule image (pas de superposition donc...): 1 bloc, 2 blocs avec séparation horizontale ou verticale, 3 blocs avec séparation horizontale ou verticale et 4 blocs (6 modes). On sélectionne les images à mettre dans chaque blocs à partir de 3 dossiers et on choisit dans quel bloc l'image sélectionnée va être assignée. Chaque image dans chaque bloc peut ensuite être redimensionnée, déplacée ou effacée. Un bouton "send" propre à chaque bloc permet de connecter l'écran de projection à l'écran de monitoring (ouvert = les modifications sont visibles sur l'écran de présentation, fermé = les modifications ne sont visibles que sur l'écran de monitoring). Voici une image du mapping du Launchpad:



















Le TotalControl est quant à lui au service des effets que l'on peut appliquer sur chaque image. 4 faders gèrent la luminosité, 4 potentiomètres rotatifs pour la saturation et 4 potentiomètres rotatifs pour le contraste. Un bouton "reset" permet de revenir à la valeur initial de chaque paramètre. Enfin, un bouton "rec" et un bouton "play" pour chaque bloc permettent d'enregistrer des automations, c'est-à-dire des variations de luminosité, de contraste et de saturation et de les rejouer en boucle. Les contrôles généraux de luminosité, de contraste et de saturation ainsi que l'effet de pixellisation n'a pas encore été programmé, mais ne sauraient tarder ! Voici pour le mapping du TotalControl:

















Passons donc maintenant à la partie sonore... L'idée principale est de réussir à "lire" musicalement l'écran de présentation, composé d'une part des images elles-même et d'autres part des espaces entre les images. Chaque image sera associée à un son (un sample) et la configuration des images sur l'écran sera lue comme la rythmique (l'enchainement) de ses sons. Des images et leur configuration vont devenir des sons et leur rythme. Comment faire techniquement ? Comment lire à la fois les images de l'écran et la distance entre ces images ? Quel est l'impact de la taille d'une image ? Voici une technique semi-aléatoire que j'ai retenu pour arrivé à répondre à ces questions.

 Imaginons un point (ici un carré noir) que l'on relâcherait du bord gauche de l'écran de présentation. Ce point va aller tout droit jusqu'à rencontré l'image 1. La rencontre du point et de l'image 1 va engendrer un son, le sample 1, et la bifurcation du point dans 2 directions, l'une vers le haut de l'image, l'autre vers le bas, comme représenté par la ligne noire sur la figure.



On imagine donc que les images sont comme des obstacles à l'avancée d'un flux, dont le front est représenté par le point. Dans le cas illustré ci-dessus, le point va d'abord rencontrer l'image 1 et produire le son 1. Première bifurcation, la trajectoire basse ne rencontre plus d'image et ne crée donc pas de son. La trajectoire haute va par contre rencontrer l'image 2 et créer le son 2 au moment de l'impact. On voit tout de suite que plus le nombre d'images (d'obstacles) est grand, plus le nombre de trajectoires finales sera élevé, à cause du nombre de bifurcations. C'est une propriété intéressante puisque on imagine facilement que le nombre de "lectures" différentes que l'on peut faire d'une série d'images va être proportionnel au nombre d'images de la série (1 image = 1 lecture, plusieurs images = plusieurs lectures différentes). Ce procédé permet donc bien de "lire" de manière sonore une succession d'images. Mais quel est l'impact de la position des images ?















On voit sur cette figure que la configuration de l'espace entre les images crée une série de durées plus ou moins longue suivant l'espacement des images (t1, t2 et t3 ici). Si on joue le sample 1 au moment où le point rencontre l'image 1 et le sample 2 au moment où le point rencontre l'image 2, la durée des silences entre les apparitions des deux samples va définir le rythme de l'interprétation sonore. La configuration spatiale des images est donc dans ce système directement liée de manière symétrique avec la configuration temporelle des sons. Il nous reste une dernière petite chose à interpréter: que représente la bifurcation ? Quelle différence cela fait qu'un point impacte une image plutôt en haut ou plutôt en bas ?















Le volume et la durée d'un sample définisse la "taille" d'un son: plus le volume est important et/ou plus le sample dure longtemps dans une boucle, plus le sample occupera une place importante dans la musique, tout comme une image grand format occupe plus de place dans le paysage visuel qu'une image petit format. Il faudra donc, pour une lecture sonore adéquate de l'écran de présentation, que le volume et la durée d'un sample soit "proportionnel" à la taille d'une image. Mais définissons d'abord ce que nous appelons un sample: le passage d'un volume 0 à un certain volume x puis de nouveau à un volume 0 d'un élément sonore. Cette définition fait apparaitre 2 durées: le temps que met initialement un sample à atteindre le volume sonore x et le temps que met le sample à redescendre de ce volume sonore x vers un volume sonore nul. Ces deux paramètres sont connus sous le nom d'"attack" et de "release" dans le jargon de la création sonore. En partant du principe que généralement le sujet principal d'une image est au centre de cette image, un point qui impacterai une image en son centre devrait "lire" rapidement le message principal de cette image et inversement, un point qui impacterai une image en son bord devrait mettre plus de temps à "découvrir" le message contenu dans l'image. C'est ce que nous avons voulu reproduire ici: la durée d'un sample sera proportionnelle à la largeur d'une image et la distance entre le point d'impact et le centre de la largeur de l'image sera proportionnelle au temps d'"attack" du sample. La façon (déterminé par le point d'impact) dont une image est lu par une trajectoire déterminera donc l'importance du sample associé à cette image dans la boucle sonore. Le dernier point que j'aimerai aborder aujourd'hui concerne la manière dont tout ceci se mettra en pratique.















Le musicien (moi en l'occurrence) aura 4 paramètres sur lequel jouer:
- le nombre de points relâché par unité de temps (contrôle du nombre de trajectoires)
- la position moyenne des points relâchés (contrôle de la zone lu musicalement)
- la dispersion des points relâchés autour de cette position moyenne (contrôle de l'aléa des trajectoires)
- le mode de relâchement des points (contrôle du type de lecture des images)

A suivre...

0 commentaires:

Enregistrer un commentaire