Agora
Résonances
www.ircam.fr
Programme jour par jour

PROGRAMME JOUR PAR JOUR

Installations NIME 06

L'Ircam accueille plusieurs installations sélectionnées par le jury de NIME 06. Tout à la fois improvisateurs, "performeurs", inventeurs d'une nouvelle lutherie, expérimentateurs des technologies numériques, ces artistes repoussent les distinctions entre ce qui est prémédité et composé, et font de l'interaction leur principal credo.

Acousmeaucorps de Tom Mays

Installation sonore interactive qui crée un espace corporel acousmatique en utilisant une caméra vidéo, un ordinateur et quatre haut-parleurs.

La caméra vidéo (située au-dessus de l'espace) est reliée à un ordinateur utilisant Max/MSP/SoftVNS qui génère un son spatialisé à partir des données de mouvements et de positions. Le corps humain devient alors un instrument, produisant et déclenchant des sons, qui construit ainsi des séquences musicales à travers la marche, la course, des mouvements de bras ou même en fléchissant juste ses doigts.

Dans la version actuelle d'Acousmeaucorps, les sons sont travaillés sur deux niveaux. Le premier : une "masse" résonnante qui semble se déplacer comme l'eau dans une pataugeoire – favorisant certaines hauteurs en fonction de la zone du mouvement ; le second : le déclenchement de différents "objets trouvés" qui semblent apparaître à des endroits très spécifiques de l'espace. Ces deux matériaux sonores se mélangent pour encourager des personnes à se déplacer en se laissant aller, trouvant plaisir à essayer différents mouvements qui, devenant fluides et interrogatifs, donnent à l'idée du corps et de l'espace de nouvelles significations. Les visiteurs se déplaçant librement dans l'espace défini par les quatre haut-parleurs deviennent eux-mêmes créateurs et performeurs de leur musique et de leur danse.

Avec le concours de La Grande Fabrique, Dieppe

  • du 2 au 11 juin | Ircam, niveau 0, passerelle d'entrée
  • Tom Mays

Anemo de Ryoho Kobayashi

Interface musicale utilisant des ballons flottants.

Dans cette installation, le matériel sonore de base provient de boules de ping-pong roulant sur un ventilateur électrique. Le traitement du son se modifie en fonction du mouvement de ballons en flottaison dans le courant d’air chaud du ventilateur. Les couleurs et les mouvements des ballons sont captés par une caméra vidéo et un ordinateur utilisant Max/MSP/Jitter.

À chaque couleur de ballon est associée un effet sonore particulier. L'interprète peut contrôler le mouvement des ballons, donc les effets, en plaçant ses mains dans le courant d’air chaud du ventilateur électrique.

  • du 3 au 12 juin | Ircam, niveau -1

Métier à tisser musical de Kingsley Ng

Un métier à tisser vieux de 250 ans a été transformé en un instrument qui produit des sons et des images. Ce travail a été élaboré dans le nord de la France, où le métier à tisser a joué, région au siècle dernier, un rôle important dans le développement puis la récession économique de cette région.

Métier à tisser musicalSes mouvements mécaniques, ses bruits, le chaînage, évoquent non seulement un passé industriel mais également toute une mémoire collective, allant du poétique à l'angoisse selon l'individu. D'une certaine manière, on peut le rapprocher des Haïkus japonais, où en peu de mots et de syllabes sont générées des images de dimensions sublimes.

Le métier à tisser tient un rôle significatif lié à l'histoire des médias ; l'historien d'art Lev Manovich nous rappelle la citation d'Ada Augusta, le premier informaticien, "le moteur analytique tisse les modèles algébriques, de la même manière le métier à tisser Jacquard tisse des fleurs et des feuilles...". Le lien entre le métier à tisser Jacquard et le moteur analytique n'est pas un sujet que les historiens de l'informatique ont pris en considération, puisque pour eux la synthèse d'image représente seulement une application de l'informatique moderne parmi des milliers d'autres ; mais, pour un historien de nouveaux médias, il est plein de significations. Ici, face à ce readymade, âgé de 250 ans, chacun reste libre d'établir son propre rapport avec l'histoire locale ou globale et de tisser un champ sonore unique basé sur son expérience avec l'installation.

"Le travail présenté a conquis l'unanimité du jury qui a salué l'objet présenté et sa dimension magnifiquement poétique (similitude avec les effets poétiques des Haïkus japonais). Le projet obtient les félicitations du jury à l'unanimité."  Le Fresnoy - Studio National, 2005.

Ingénieur électronicien Francis Bras (InterfaceZ) | Atelier décoration Jean-Pierre Courcelle | Concept vidéo captation gestuelle Jean-Baptiste Droulers | Directeur de la Production Isabelle Bohnke | Conseillers artistiques David Link, Andrea Cera, Christophe Kihm, Madeleine Van Doren.

Le Fresnoy

Remerciements Richard Campagne, Matthieu Chéreau, Alain Fleischer, José Honoré (Musée du Jacquard), Joelle Pijaudier, Pascal Pronnier, Blandine Tourneux.

Production Le Fresnoy, Studio national des arts contemporains, à Tourcoing

  • du 3 au 14 juin | Ircam, niveau -1, salle BS14

16:9 Intercreative Sound Installation de Daniel Teige & Martin Rumori

16:9 est une installation sonore interactive. En utilisant une interface portable sans-fil, des sons peuvent être librement mixés et spatialisés sur un grand réseau mural de haut-parleurs. Ceci s’effectue en dessinant avec des couleurs sur cet ordinateur. Par l'interface spécialement développée, le peintre virtuel peut interagir, tout en se déplaçant, d'une manière tactile et ludique avec cette peinture sonore. 16:9 est donc un écran pour une peinture sonore générée par l'utilisateur.

64 haut-parleurs indépendants sont installés en damier sur un grand panneau blanc, formant ainsi l'écran de projection acoustique. Adapté à l'architecture de l'espace, ce réseau de haut-parleurs est accroché au mur comme une toile. Le positionnement de sources sonores et des effets de profondeur sont facilement contrôlables afin de créer une peinture sonore interactive. Dans 16:9, les sons, pour la plupart provenant d'un milieu urbain, produisent des textures et couleurs sonores en temps-réel. En explorant la ville où est située l'installation, le compositeur cherche des sons caractéristiques de cet espace urbain. Avec les enregistrements in situ, il crée ensuite des sons et couleurs qui forment la base de la peinture synesthésique virtuelle. En changeant le caractère de ces sons sur plusieurs niveaux d'abstraction, il est possible de ressentir une situation synesthésique urbaine.

Intercreative Sound Installation

Dans 16:9, le visiteur s'intègre en tant que source active au sein de l'installation. Sans action, aucun son ne surgit. Le choix de la coloration par l'utilisateur, donc du mixage, correspond à une interprétation unique. L'installation n'est plus uniquement alors un concept voulu par l'artiste. Le "peintre" est capable, dans un processus créatif, de s'exprimer dans l'installation.

Financé par Apogee, l'administration du sénat chargée des sciences, de la recherche et de la culture, Wolf et Elisabeth Teige, Dipl. Ing. Folkmar Hein, Thomas Seelig, Michael Hoeldke et Dipl. Ing. Manfred Fox. Nous remercions particulièrement notre productrice Catherine Mahoney à New York, Dipl. Ing. Osswald Krienke du Digital Audio Service à Berlin, Hanjo Scharfenberg/ Galerie Rachel Haferkamp à Cologne et les ordinateurs Apple.

  • du 1er au 17 juin | Ircam, niveau -2

Codespace_Tag de Jasch

Le point central de cette installation réside dans le rapport entre les visiteurs et un monde audiovisuel abstrait, au carrefour entre l'espace réel d'une personne dans une salle et un espace imaginaire, géométrique et acoustique.

Les processus : un monde abstrait est créé en temps-réel à travers un dessin génératif et des sons électroniques. L'évolution des processus visuels et acoustiques dépend en partie de l'interaction avec les visiteurs, mais est aussi autonome par l'utilisation d'informations obtenues de diverses sources Internet. Les images représentent un espace imaginaire dans lequel les rapports entre différentes entités sont visibles. C'est un paysage changeant avec un style graphique qui fait ressembler à un film peint.

L'interaction : l'interaction agit en deux temps : le mode actif donne au visiteur l'occasion d'interagir directement avec le processus à travers un contrôleur de jeu situé au centre de l'installation. Le mode passif consiste à observer l'espace d'exposition avec une caméra, puis extraire des informations à partir des mouvements et des comportements du visiteur.

Les médias : le son et les images apparaissent comme une superposition de deux couches. La première contient des séquences préparées et des enregistrements audio tirés d'espaces architecturaux urbains. La seconde couche consiste en images et sons de la galerie elle-même. Ces sons et images sont mélangés, modifiés et projetés dans l'espace imaginaire sous forme de fragments et de textures.

L'espace : le lieu est adapté pour guider le regard du visiteur de l'espace réel vers l'espace imaginaire. Deux images - l'une grande, l'autre petite - sont présentes ainsi qu'un système de son spatialisé immersif. Un paravent semi transparent divise l'espace, ce qui crée un chemin qui transporte le visiteur d'un extérieur, offrant une vue singulière, à un intérieur où se trouvent toutes les composantes de l'installation.

  • du 1er au 17 juin | Ircam, niveau -2, salle A202
  • Jasch

Line de Daisuke Kobori, Kojiro Kagawa, Makoto Iida, Chuichi Arakawa

Installation interactive qui permet une expression synchrone entre son et lumière.

Les spectateurs peuvent simultanément contrôler le son et un objet lumineux en 3D qui apparaît dans un écran cylindrique. En déplaçant une télécommande sans fil, le public peut assister à un mélange harmonieux de son et de lumière. Si le spectateur déplace son bras, l'objet lumineux et sonore émerge dans l'espace. S'il le bouge de nouveau, l'objet lumineux disparaît sans laisser de trace.

Line

  • du 3 au 9 juin | Ircam, niveau -2, entrée studio 6

Audio Shaker de Mark Hauenstein & Tom Jenkins

Le dispositif Audio Shaker explore notre compréhension de la perception des sons. Un son chanté, parlé, battu, sifflé ou joué près de soi est emprisonné à l'intérieur, où il prend une présence physique imaginée et pourtant réelle.

Audio ShakerDes sons attrapés dans cet espace sont transformés, en fonction de la force et de la durée des mouvements imprimés à l'Audio Shaker, subtiles ou violents. Les sons secoués s'atténuent avant de devenir immobiles et silencieux, se comportant davantage comme un fluide plutôt qu'une énergie éphémère.

L'échelle du temps linéaire du son est rompue, une conversation est coupée en mots et mélangée dans le Shaker, et peut être servie séparément, ou renversé d'un seul coup en une éclaboussure ou encore mélangé avec d'autres sons ajoutés.

En résumé, l'Audio Shaker est un récipient tactile conçu pour capturer, secouer et verser des sons, ouverts à l'imagination et à l'interprétation par notre propre expérience intuitive.

Sonobotanic Plants de Marije Baalman & Alberto De Campo

La sonobotanique est toujours une science méconnue ; cela correspond à l'étude des plantes dont la vie est essentiellement dans le domaine auditif.

IPSO-FACTO
Institute for Predictive Sonobotanics
Foundation for the Auralisation and Computation of Transient Objects

Depuis les années 1970, la recherche de base dans ce domaine a été réalisée par le Prof. Dr Hortensia Audactor ; malgré les difficultés rencontrées avec la publication de ses résultats, elle a recueilli un corpus substantiel de recherche des modèles de croissance, d'attitude comportementale et d'autres caractéristiques de ces plantes.

Récemment, le domaine de la Sonobotanique Prophétique a été fondé, avec l'intention de créer des modèles de plantes avec l'optique de prédire le comportement de plantes sonobotaniques, pour aller plus loin dans la compréhension des subtilités du comportement de plantes sonobotaniques qui pourrait être amélioré à son tour.

Pendant l'exposition, les modèles d'un Periperceptoida Dendriformis Sensibilis et le Periperceptoida Dendriformis Imaginaris sont présentés.

  • du 1er au 17 juin | Ircam, niveau -3, escaliers
  • IPSO-FACTO

Transduction.2 de Marc Fournel

Installation audio qui utilise cinq petites interfaces électroniques sphériques parsemées au sol. Les visiteurs doivent simplement attraper les ballons pour déclencher la diffusion du son spatialisé et pour dialoguer avec l'environnement immersif de Transduction.2.

La création et la spatialisation sonores ne sont produites que s'il y a déplacement de l'une des interfaces. La spatialisation des sons est déterminée par le positionnement des interfaces dans l'installation. Les sons suivent les manipulateurs pendant qu'ils se déplacent dans l'espace avec les interfaces.

Le système permet également à des utilisateurs de lancer un son d'un haut-parleur à l'autre, en faisant simplement un mouvement pour lancer les interfaces vers le haut-parleur choisi. Ils peuvent également régler le niveau sonore en fonction de leur positionnement dans l'espace.

Transduction.2 relève de trois catégories de son : échantillons sonores, son produit par des algorithmes et sons introduits par les déplacements des visiteurs en direct dans le système. Les sons émis viennent d'éléments naturels (vagues, vent, bruits de cailloux, mouettes), d'activités humaines (rire, pas, enfants sur une balançoire) et d'objets (bruits de moteurs, trains qui roulent, pliage de feuilles de papier).

Les visiteurs devenus interacteurs ont également la possibilité d'introduire des sons dans le système par l'intermédiaire d'un microphone miniaturisé inséré dans une des interfaces. Ceci permet à ces interacteurs d'introduire des mots parlés, respiration, musique, rythme ou tout autre proposition sonore. En déplaçant l'interface, ils modifient les sons qu'ils ont introduits dans le système en temps-réel. Ces modifications sont créées en utilisant la même structure que celle utilisée pour les algorithmes sonores. L'entrée des sons en direct permet aux utilisateurs de personnaliser l'environnement de Transduction.2 en s'ouvrant à la création d'exécutions sonores uniques.

Le système de positionnement (LPS) de Transduction.2 a été développé par Ubisense, une société basée à Cambridge, Angleterre et à Denver, États-Unis, et Marc Fournel est associé à leurs recherches depuis plus de deux ans.

  • du 1er au 17 juin | Ircam, niveau -4, foyer Espace de projection

Du jeudi 1er au samedi 17 juin, 11h-19h / Ircam

<< Retour