Visualiser le son et la musique

** Il est temps de se concentrer sur un seul invisible, le son et la musique. Nous allons nous en approcher davantage que les précédents, pas tant pour lui donner une importance particulière que pour s’en servir comme exemple à la notion plus grande qu’est la visualisation de l’invisible. **

Visualiser le son

Le son est propagé par le déplacement de la pression d’un fluide, tel l’air, causé par une vibration avant d’être finalement répercuté sur les mécanismes logés dans nos oreilles.



Audiogrammes



Pour l’analyser et le représenter, on peut lui appliquer le modèle des ondes mécaniques progressives, qui permet de résumer ces vibrations en fréquences et amplitudes, et peut être représenté grâce à une courbe en deux dimensions.

Si une onde mécanique classique se visualise d’une simple sinusoïdale, le mathématicien Joseph Fourier comprend en 1822 que la complexité du son peut être décrite comme une série de sinusoïdales superposées.



Les ondes sonores peuvent être converties en tension électrique — par l’intermédiaire d’un microphone par exemple — en vue d’être amplifiées, enregistrées ou visualisées (notamment grâce à un oscilloscope).



L’image d’une onde sonore, un audiogramme, est une de ces visualisations qui permet la reproduction du phénomène original, ici le son enregistré — avec un taux d’erreur très faible si la visualisation est précise. Par exemple, le disque microsillon, inventé en 1946, est une sculpture hélicoïdale microscopique d’une onde sonore prête à être reproduite.



Au cinéma, une bande-son optique, telle qu’inventée par Lee De Forest dès 1919, est une visualisation du son imprimée près des perforations, courant en parallèle des images du film.



De nombreux artistes et ingénieurs ont expérimentés avec ce principe d’audiogrammes lus grâce à un dispositif optique. Arseny Avraamov produit en 1930 des bandes-son peintes à la main pour le cinéma ; Evgeny Scholpo développe la même année une machine nommée variophone ; En 1939, le livre Theory and Practice of Graphic Sound est publié ; En 1977, Iannis Xenakis conçoit au Centre d’Études de Mathématique et Automatique Musicales l’UPIC, un synthétiseur fondé sur le dessin des ondes sonores — cette fois-ci de manière numérique plutôt qu’optique.



Beaucoup tentent de dessiner des formes géométriques voire figuratives afin d’écouter le son qu’elles produisent. Plusieurs projets font courir les audiogrammes de manière circulaire sur des disques plutôt que des bobines : Welte Light-Tone de Edwin Emil Welte en 1936, l’ANS Synthesizer de Evgeny Murzin en 1958, l’Optigan en 1971, ToneWheels en 2007, The Evil Eye en 2012.



Comme le son possède cette possibilité d’être représenté graphiquement de manière précise, il peut être déposé dans les bureaux d’enregistrement des marques de commerce, qui n’acceptent traditionnellement que les textes et les dessins et schémas. Il est intéressant de noter par exemple que le rugissement du lion ouvrant les films de la Metro-Goldwyn-Mayer fût ainsi déposé comme marque sonore, sous la forme d’un spectrogramme.

Spectrogrammes

Parlons-en, des spectrogrammes. Le spectrogramme, ou sonagramme, est une autre méthode de visualisation du son. C’est une visualisation de l’intensité du son par fréquence en fonction du temps, là où les audiogrammes présentés jusque ici montraient l’amplitude du son en fonction du temps.



La fréquence sonore, nous y reviendrons en passant à la musique, est déterminante de la hauteur du son. Le spectrogramme possède donc l’avantage de visualiser la répartition entre les aigus et les graves de l’intensité d’un son.

Comme un axe est utilisé pour le temps et un second pour la fréquence, l’intensité doit être visualisée grâce à un troisième axe dans un spectrogramme en trois dimensions, ou avec une variation de couleur ou d’opacité si il reste en deux dimensions.




Les spectrogrammes sont très utilisés pour reconnaître, analyser et comparer les sons, leur apparence s’apparentant à une sorte d’empreinte du son enregistré. Ils servent notamment pour les recherches en zoologie (champs des oiseaux, cris d’animaux), la phonétique et la reconnaissance vocale.





C’est donc une forme de visualisation automatisée qui est surtout destinée à la lecture humaine. Il est cependant possible de reproduire informatiquement un son depuis un spectrogramme et — anecdotiquement — de dessiner un spectrogramme artificiellement avant de le convertir en ondes sonores. Cette technique est utilisée par plusieurs artistes musicaux pour dissimuler par stéganographie des images et des photographies au sein de leur pistes sonores.



Du son à la musique



Avant de passer à la visualisation de la musique, survolons un instant ce qui forme la musique d’un point de vue sonore. La musique peut être réduite à quatre composantes : hauteur, durée, intensité et timbre.

La hauteur est définie par la fréquence de l’onde sonore. Plus le nombre d’oscillations sur un temps donné est élevé, plus le son est aigu, plus le nombre d’oscillations est faible, plus le son est grave.



Note

Hertz

Do

261,63

Do ♯

277,18

293,66

Ré ♯

311,13

Mi

329,63

Fa

349,23

Fa ♯

369,99

Sol

392,00

Sol ♯

415,30

La

440,00

La ♯

466,16

Si

493,88

Les fréquences en hertz définissant chaque note dans la troisième octave.


En réalité, les hauteurs perçues sont souvent composées de plusieurs fréquences superposées, et peuvent même être extrapolées par l’oreille quand la fréquence fondamentale n’est pas présente. Certaines de ces fréquences, reconnues grâce à une suite harmonique mathématique et aux vibrations synchronisées qu’elles produisent dans les oreilles, ont été sélectionnées et nommées. Ce sont les notes, en tout cas celles historiquement associées à la musique occidentale.

La durée est simplement la composante temps de la musique, formant le rythme, la longueur des notes et des silences. L’intensité est la puissance des ondes sonores, leur force, leur volume, leur nuance.

Le timbre est plus difficile à rationaliser. Il décrit la sonorité d’un instrument, les caractéristiques sonores qui le différencient des autres, sa voix en quelque sorte. Il possède un ensemble de composantes, comme la brillance, le vibrato ou la texture sonore. C’est ce qui fait qu’un piano et qu’une guitare jouant la même note, avec la même durée et la même intensité, ne produisent pas le même son.

Ça fait quatre variables à visualiser lorsqu’on veut représenter la musique.

Visualiser la musique

L’une des raisons principale pour laquelle on visualise la musique est en vue de la reproduire. La transmission des morceaux entre musiciens, tant dans le temps que dans l’espace, implique la création de systèmes de notation permettant de représenter les pièces musicales sous une forme reproductible.

Représentation du timbre

La plupart de ces langages graphiques s’intéresse à la hauteur, à la durée, et — dans une moindre mesure — à l’intensité. Le timbre, intrinsèque à chaque instrument, reste généralement à l’écart de ces visualisations.

C’est une constatation que fait Adriano Abbado dans une thèse qu’il publie en 1988. Il remarque que la notion de timbre est constamment ignorée en musique occidentale, alors que c’est une composante importante dans les musiques d’autres cultures, comme dans les chants des moines tibétains qui se concentrent davantage sur les variations de timbre que sur les changements de hauteurs. Avec l’arrivée des synthétiseurs, cependant, la possibilité de façonner la sonorité d’instruments artificiels a redonné à la notion de timbre son importance.

Il s’intéresse à la classification des timbres par Fred Lerdhal puis travaille enfin sur leur visualisation. C’est le projet Dynamics.



Pour retranscrire les différentes caractéristiques des timbres et leur richesses, il utilise des infographies 3D abstraites. Par exemples, les sons harmoniques sont associés à des formes lisses et les sons inharmoniques à des formes rugueuses. La forme, la couleur et la texture de ces objets tridimensionnels, ainsi que leur position dans l’espace, sont autant de variables qu’Abbado associe pour représenter le timbre.

Les choix sont délibérément subjectifs :

« Établir une méthode de correspondance rigide peut devenir une procédure mécanique qui limite le processus créatif et se trouve inévitablement répercutée dans l’œuvre finale. Je n’ai donc jamais analysé le spectre sonore avec une précision absolue, mais ai plutôt modélisé des objets se rapprochant au plus d’attributs auditifs perceptibles, applicables à un contexte visuel : rugosité, humidité, température, viscosité, spongiosité, granularité, opacité, et ainsi de suite. »

Nous avons donc affaire à une visualisation qui se situe dans l’interprétation, plutôt que dans la représentation ou la notation.

Représentation de la hauteur et de la durée

Revenons sur deux autres composantes de la musique, la hauteur et la durée. Toutes deux sont des valeurs à une dimension, la musique réduite à ces deux caractéristiques pouvant ainsi être représentée en deux dimensions. Sur un axe, la hauteur, décrite en fréquences ou en notes ; Sur l’autre, la durée, en secondes ou en temps (pluriel, au sens musical).

C’est de cette façon qu’est stockée la musique sur les bandes papiers perforées d’un orgue de Barbarie, par exemple. Les notes sont réparties en hauteur, actionnant des soufflets différents, et la durée s’étale en longueur, l’étendue réelle d’un temps dépendant de la vitesse à laquelle le musicien tourne la manivelle. Un piano mécanique fonctionne de manière similaire.



Les perforations pour les orgues de Barbarie, si elles sont visibles et peuvent être qualifiées de visualisation, ne sont pourtant pas destinées à une lecture humaine.

On retrouve cependant ce principe dans le projet débuté en 1974 par Stephen Malinowski. Frustré de la complexité des partitions traditionnelles, il tente de trouver une méthode pour visualiser des morceaux de musique de manière plus instinctive.

Il représente un concerto de Brandenburg sur une bande de papier quadrillé de six mètres de long. Le principe est en tous points similaire à ceux des orgues de Barbarie, à part que Malinowski utilise également la couleur pour différencier les différents instruments de l’orchestre.



En 1981, un ami lui suggère de l’animer, mais le travail d’animation est très fastidieux. Jusqu’en 1985, il met alors au point un programme informatique répliquant le principe de sa bande de papier mais de manière automatisée : c’est la Music Animation Machine.



Il y travaille encore aujourd’hui, produisant de nombreuses visualisations de morceaux qu’il distribue sous forme vidéo.

Notation de la musique

Cependant, la visualisation de la musique reste essentiellement associée à sa notation. Pour coucher la musique sur papier, la transmettre et permettre à d’autres de l’interpréter, les musiciens ont assez tôt mis au point des systèmes permettant de l’écrire.

En occident, on ne semble pas avoir retrouvé des notations par les peuples égyptiens, hébreux et chaldéens, malgré le développement avancé de leur culture musicale ; Les premier témoins attestés de notation musicale sont les notations grecques.

À l’origine entièrement liées à des instruments spécifiques, tablatures sous forme textuelle indiquant davantage sur quelles cordes tirer que quelles notes jouer, elles ont prises en compte plus tardivement les notions de notes et de hauteur, d’abord en utilisant des lettres de l’alphabet, puis en développant des symboles spécifiques.



La notation musicale a continué à évoluer au cours des siècles, influencée par l’évolution des styles musicaux et des instruments successifs, connu plusieurs réformes, s’éloignant progressivement d’un système d’alphabet pour devenir un vrai système graphique, jusqu’à atteindre celle qu’elle est aujourd’hui.

Si on n’entrera pas ici dans les détails de la notation contemporaine, un livre de solfège se révélerait bien plus expert en la matière, faisons l’inventaire non-exhaustif des formes, symboles et autres caractéristiques utilisés aujourd’hui pour mettre à l’écrit les différentes composantes de la musique :



C’est une notation assez complexe. De nombreux mécanismes d’écritures différents y sont combinés pour marquer tous les aspects nécessaires pour reproduire la musique, mais on voit que cette notation, construite progressivement, par évolution, sur plusieurs siècles, est un amalgame de notations passées. Elle n’est pas non plus entièrement graphique, impliquant encore l’utilisation de mots, souvent abrégés, pour préciser certains aspects.

Plusieurs propositions pour transformer la notation musicale établie ont été publiées, bien que pas ou peu adoptées.

Certaines sont modérées, et offrent une évolution logique de la notation existante, comme celle proposée par Edward V. Huntington dans The Scientific Monthly en 1920. La majeure réforme de cette proposition est la rationalisation de la notation de la hauteur, en supprimant les symboles marquant les dièses et les bémols, remplacés par une nouvelle répartition verticale des notes. Tous les tons et demi-tons sont placés sur la portée, et autant de portées que d’octaves nécessaires courent en parallèle.




De manière plus contemporaine cependant, on retrouve les travaux parmi les plus intéressants concernant la notation musicale dans ceux collectés par John Cage dans son anthologie intitulée Notations, publiée en 1969 — et de façon similaire par Theresa Sauer dans son livre Notation 21, sorti en 2009 pour le quarantième anniversaire de la collection de John Cage.

Cage a recueilli les travaux de 165 compositeurs préférant utiliser leurs propres systèmes de notation pour élaborer leurs pièces. Le livre Notations propose ainsi un tour d’horizon assez varié des notations alternatives de la musique, s’éloignant généralement davantage de la notation classique que les simples améliorations comme celles d’Huntington.

Plutôt que de faire courir ce texte davantage, voici une sélection de fac-similés de notations graphiques de la musique, plusieurs étant écrites par des compositeurs présentés dans les deux livres sus-cités.












En soi, la notation n’est pas une œuvre, mais le vecteur permettant de transmettre l’œuvre. Si la notation traditionnelle est très rationnelle, on peut arguer que dans les cas de certaines de ces quelques notations, la part de subjectivité et de libre interprétation ou bien leur mécanique conceptuelle font qu’elles prennent part intégrante de l’œuvre, voire en sont la principale partie. C’est une situation où la visualisation du phénomène (mettons qu’on peut appeler la musique phénomène) et le phénomène lui-même ne font presque plus qu’un.

Pour finir, une part de la visualisation de la musique où le subjectif et l’émotionnel prend une place bien plus importante.

Interprétation de la musique

Si plusieurs travaux précédents étaient en partie des interprétations, ils prenaient des formes proches de la représentation ou de la notation.

Mais c’est dans l’art où l’interprétation de la musique est la plus manifeste. Les compositions de Vassily Kandinsky, les films de Oskar Fischinger, les fugues de František Kupka ou de Paul Klee sont autant de tentatives d’interpréter des pièces musicales invisibles sous des formes visibles. De manière encore plus perceptive ou instinctive, les tableaux d’artistes synesthètes entrent aussi dans cette série.



Dernière mise à jour