La production, la reproduction et la transmission de la voix humaine
La voix humaine tient une place particulière
dans la recherche acoustique.
Tout d'abord il s'agit d'un instrument de musique "vivant",
faisant partie intégrante du corps humain, dont l'observation
en cours de production sonore reste, aujourd'hui encore, difficile d'accès.
Ensuite, les signaux produits par la voix humaine sont dotés
d'une très forte prégnance cognitive, et forment une catégorie
perceptive qui se structure très tôt dans la mémoire
auditive. S'inscrivant implicitement dans un schéma de communication
impliquant au moins deux partenaires, ils activent alternativement deux
attitudes d'écoute. La première est l'écoute sémantique,
en quête de sens : identité du locuteur, signification
des paroles prononcées, éventuellement signes sémantiques
prosodiques; la deuxième est l'écoute qualitative, celle
des variations esthétiques des
paramètres sonores, mise en oeuvre lors de la production chantée.
1 - Comprendre le mécanisme de la voix
Vers 1854, Manuel Garcia frère de la Malibran et auteur
de plusieurs ouvrages sur la voix et lart du chant, dont Mémoire
sur la voix humaine (1840) , en se promenant dans les jardins
du Palais Royal, eut lidée de regarder ses cordes vocales
par le biais de sa canne : la lumière solaire se reflétant
dans le pommeau renvoyait un rayon au niveau de sa bouche. Garcia parvint
ainsi à visualiser le jeu des cordes vocales. Après cette
première « découverte », il plaça pour
améliorer son observation un petit miroir au bout dun long
manche : ce sont les débuts de la laryngoscopie. Lensemble
des expériences de Garcia est recueilli dans ses Observations
physiologiques sur la voix humaine et publié en 1855. Ses recherches
sont complétées par les expérimentations sur le
larynx et les cordes vocales dun autre physiologiste, le médecin
tchèque Czermack. Grâce au laryngoscope, Czermack explore
en 1880 le « fonctionnement des cordes vocales et celui du voile
du palais dans la production des nasales».
Les recherches sont approfondies par des physiologistes
lAutrichien Ernst von Brücke, définit les bases théoriques
de cette nouvelle approche grâce à ses travaux sur lanalyse
des articulations des sons du langage dans les principales langues anciennes
et modernes. Hermann
von Helmholtz, avec son "Die Lehre von des Tonempfinungen",
ouvrage fondamental paru en 1862, donne pour la première fois
une théorie physique des voyelles et montre quelles se
distinguent lune de lautre par leur timbre, doù
sa théorie de la résonance appliquée aux timbres
des sons en harmoniques simultanées. À cet effet, Helmholtz
met au point un instrument de mesure, les « résonateurs
de Helmholtz » (des caisses de résonance sphériques
ouvertes construites initialement en verre puis en laiton), fabriqué
et commercialisé par Rudolph Koenig.
2 - L'apprentissage de la langue la méthode
Bell
Alexander Bell opte pour un procédé qui cherche à
rendre la langue « visible » par lutilisation
dun alphabet comportant dix symboles pour la langue, les lèvres,
le larynx et les fosses nasales : le Visible
Speech.
Cet alphabet physiologique donnait la position des organes au cours
de la prononciation et il permettait donc de transcrire « graphiquement
pour chaque son du langage les composantes articulatoires qui les réalisent».
Un« Anglais, qui nétait ni physiologiste ni physicien,
mais simplement professeur de diction», Alexander
Bell, apporte sa contribution à une meilleure
connaissance de larticulation des phonèmes et des voyelles
au moyen dune étonnante méthode. Il lexplique
dans un ouvrage intitulé Visible
Speech : the Science of Universal Alphabetics, or Self-interpreting
Physiological Letters for the Printing and Writing of all Languages
in One Alphabet, dont la première édition
date de 1867.
Cette méthode connaîtra un grand succès dans les
écoles dAngleterre et des États-Unis et sera utilisée
pendant une quinzaine dannées.
Les travaux de la famille Bell se situent à la
croisée des différentes expérimentations et permettent
donc de mettre à jour un certain nombre de relations qui réunissent
plusieurs éléments au premier abord distincts : dune
part la phonétique, la physiologie, la surdité ; dautre
part lacoustique, le téléphone, le phonographe et
le microphone. Après avoir exercé lactivité
de cordonnier, Alexander Melville Bell devient maître délocution
au théâtre royal dEdimbourg. Cest alors quil
ouvre une école de diction et traitement des troubles de la parole.
Il est aussi lauteur de divers ouvrages sur le sujet. Son fils,
Alexander Bell (1819-1905), dans la même lignée, est également
professeur de diction. La parole joue un rôle essentiel dans sa
vie professionnelle et privée, car sa femme Elisa était
devenue sourde à lâge de dix ans après une
scarlatine. Son frère David était aussi professeur délocution
dans une école de Dublin et cest au cours de son enseignement
de la diction quil songe à un système pour faciliter
lapprentissage de la langue et la correction des défauts
de prononciation.
Le flambeau de la famille est repris par le fils dAlexandre
Melville : Alexander Graham Bell (1847-1922).
Celui-ci complète les études de phonétique, des
langues grecque et latine, par lacoustique et la physique. Il
devient lui aussi professeur de diction et, comme son père, épouse
une de ses élèves (une jeune fille devenue sourde à
lâge de cinq ans) : Mabel Hubbard, auteur dun ouvrage
sur la lecture consacré à la lecture les lèvres
(The Subtil Art of Speechreading, 1895). Graham Bell poursuit donc luvre
de son père en travaillant lui aussi sur lidée de
la visualisation comme une solution pour léducation vocale
de ses pensionnaires. « Il est bien connu disait-il
que les sourds et muets ne sont muets que parce quils sont sourds,
et quil ny a dans leur système vocal aucun défaut
qui puisse les empêcher de parler ; par conséquent, si
lon parvenait à rendre visible la parole et à déterminer
les fonctions du mécanisme vocal nécessaire pour produire
tel ou tel son articulé représenté, il deviendrait
possible denseigner aux sourds et muets la manière de se
servir de leur voix pour parler. »
Pour comprendre la production de la voix humaine, il
existe beaucoup d'ouvrages et de sites internet qui traitent sur l'organe
vocal le larynx Pour visualiser cet organe, voici une belle vidéo :
Bell travaille à partir de 1874 sur la représentation
graphique des sons produits, mais sa passion pour la physique et lacoustique
le conduira tout naturellement vers la recherche de systèmes
plus avancés que ceux mis au point par ses prédécesseurs.
Dans le but de visualiser la parole pour ses élèves, il
reprend dabord les expérimentations existantes, comme celles
utilisant la capsule manométrique de Koenig ou le phonautographe
de Scott de Martinville. Pour rendre ces systèmes plus efficaces,
il en modifie certains composants : il remplace par exemple la membrane
de Scott par une autre plus sensible, ou encore il perfectionne le phonographe
dEdison (vers 1886).
Ensuite, il commence à travailler sur un nouveau
procédé et réalise lappareil « à
paroles visibles » (version manuelle). Ce système repose
sur lapplication dune autre invention : celle de «
loreille artificielle ». Graham Bell, en observant
les tracés graphiques réalisés avec le phonautographe,
a eu lintuition de faire un rapprochement entre lappareil
et loreille humaine : « Je fus très frappé
des résultats produits par cet instrument, et il me sembla quil
y avait une grande analogie entre lui et loreille humaine.
Je cherchais alors à construire un « phonautographe
» modelé davantage sur le mécanisme de loreille.
»
Le phonautographe à oreille était un instrument macabre.
Construit par Alexander Graham Bell et Clarence J. Blake en 1874, il
était composé de parties dune oreille humaine retirée
chirurgicalement un fragment de crâne, un canal auditif,
un tympan et des osselets et servait à « écrire
» visuellement des ondes sonores.
Graham Bell construit son appareil en enduisant la membrane dun
tympan et dun pavillon circulaire artificiels avec un mélange
de glycérine et deau et en donnant à ces organes
la souplesse suffisante pour quen chantant dans la partie extérieure
de cette membrane artificielle le stylet qui lui était directement
relié soit mis en vibration. Le tracé de ces vibrations
était obtenu sur une plaque de verre noircie, disposée
en dessous de ce stylet.
La section doreille humaine était fixée à
la partie supérieure de lappareil par boulon enfoncé
dans le fragment de crâne. Une vis à oreilles maintenant
le tout en place. Linstrument fonctionnait en canalisant les vibrations
des ondes sonores produites en parlant dans lembouchure située
derrière le fragment de crâne, vers le canal exposé
de loreille. En heurtant le tympan sensible situé
à lintérieur, ces vibrations déclenchaient
une réaction en chaîne : le tympan vibrait dabord,
puis les osselets, suivis du stylet, un petit morceau de paille fixé
au dernier os. Lorsquune pièce de verre recouverte dune
fine couche de suie était tirée rapidement sous le stylet
vibrant, ce dernier gravait ou « écrivait » la forme
des vibrations sur la surface du verre.
Bell continue ses recherches dans cette voie et entame
une étude sur les moyens de reproduire les sons vocaux en même
temps que la manière de les transmettre électriquement.
Sa première étape est celle de lobservation de loreille
et létude de la transmission des vibrations sur le tympan
dun cadavre. Il simule alors le tympan en faisant vibrer une membrane
métallique en fer-blanc près dun barreau aimanté,
entouré dune bobine de fil de cuivre ; les variations du
champ magnétique engendrées par les vibrations font naître
dans la bobine un courant alternatif induit qui se transmet par un fil
conducteur à la bobine du récepteur dont laimant
fait vibrer une seconde membrane métallique de la même
façon. Cétait une première ébauche
dun appareil mieux connu sous le nom de téléphone.
Cette invention fait écho à bien dautres, «
car le fait que Graham Bell, inventeur du téléphone en
1876, que Charles Cros et Thomas Alva Edison, inventeurs quasi simultanés
du phonographe en 1877, aient tous trois, à un moment de leur
vie, été éducateurs pour sourds ne doit évidemment
rien au hasard.
Il y a là un rapport très étroit entre un questionnement
sur la physiologie de la parole, la possibilité de lapprentissage
de la langue et la machine conçue comme artefact rédempteur.
Après linvention du téléphone de Graham Bell,
laudiométrie connaît un large essor et par conséquent
les recherches sur léducation auditive et vocale sorienteront,
de plus en plus, vers les méthodes « oralistes »
par opposition aux méthodes basées sur la gestualité
et les signes.
5 - La transmission de la parole
À lorigine de ces nouvelles recherches
se trouve encore la transmission de la parole.
Dès 1857, L. S. de Martinville met au point le phonotaugraphe
destiné à produire des diagrammes afin détudier
les vibrations de la voix. Cette ingénieuse sténographie
acoustique nest quune réussite partielle cependant.
Son auteur parvient à enregistrer les sons mais échoue
à les reproduire. Il lui reste cet invraisemblable désir
de vaincre le temps, fixer limmatériel, immortaliser la
voix :
« Y a-t-il possibilité darriver, en ce qui concerne
le son, à un résultat analogue à celui atteint
dès à présent pour la lumière par la photographie
? Peut-on espérer que le jour est proche où la phrase
musicale échappée des lèvres du chanteur viendra
sinscrire delle-même, et comme à linsu
du musicien, sur un papier docile, et laisser une trace impérissable
de ces fugitives mélodies que la mémoire ne retrouve plus
alors quelle les cherche ? »
Sur cette voie, Alexandre Graham Bell songe à traduire les vibrations
mécaniques en courant électrique alternatif. Pour cela,
il exploite le phénomène de la modulation dun faisceau
lumineux sous linfluence des ondes sonores. Cette modulation est
obtenue soit par la variation de lintensité du faisceau,
soit par la déviation de son axe de propagation. Finalement,
en 1880, Bell et son collaborateur Charles Summer Tainter appliquent
ce principe en vue de la transmission directe des sons entre un poste
transmetteur et un poste récepteur. Voici comment Jean Vivié
présentait ce circuit dans son Traité général
de technique du cinéma :
« Il sagissait dune transmission téléphonique
entre un poste transmetteur et un poste récepteur pointés
lun sur lautre ; le récepteur utilisait les propriétés
photoélectriques du sélénium. Le transmetteur pouvait
mettre en uvre diverses méthodes ; dans le modèle
primitif, les rayons lumineux étaient concentrés sur la
plaque argentée dun diaphragme téléphonique,
et sous linfluence de la parole cette plaque vibrait en se bombant
plus ou moins, donc en faisant varier la convergence du faisceau et
par suite son intensité dans laxe ; sous une seconde forme,
la membrane téléphonique faisait vibrer une plaque légère
percée de nombreuses fentes et placée en travers du faisceau
parallèlement à une plaque fixe identique ; enfin les
inventeurs du Photophone ont également
mis en jeu dans un troisième transmetteur laction des courants
électriques microphoniques sur la lumière polarisée.
»
Le photophone darticulation, nom donné à ce système,
a été présenté à lAcadémie
des sciences le 13 octobre 1880. Son objectif était de se servir
de la lumière pour transmettre la parole à distance, grâce
aux propriétés électriques du sélénium.
Il comportait une lampe à arc (A), un miroir (B) réfléchissant
le faisceau et concentrée par un condensateur (C) sur une membrane
vibrante (D) dun cornet téléphonique (O). Au moment
de la transmission des sons, un objectif (E) envoyait vers le récepteur
(M) un faisceau de lumière modulée. Le récepteur
(M), constitué dun miroir parabolique, comportait une cellule
au sélénium (F) ; celle-ci recevait les variations de
la lumière faisant varier à leur tour la résistance
électrique de la cellule même. Enfin ces variations de
courant étaient traduites en son dans deux récepteurs
téléphoniques.
Si Bell et Tainter sont donc à lorigine de lutilisation
de la lumière pour la transmission des sons, ils ne pensent ni
à la possibilité de fixer sur un support sensible les
variations de courant, ni à utiliser le faisceau comme une «
écriture » permettant de réentendre les sons. Pourtant
leur application du sélénium, dont les propriétés
étaient déjà connues auparavant, constitue une
grande avancée pour les futures recherches sur « lécriture
des sons » par la lumière.
Le 30 avril 1877, cest au tour de Charles Cros
de déposer auprès de lAcadémie des Sciences
de Paris un pli intitulé Procédé denregistrement
et de reproduction des phénomènes perçus par louïe.
Quand lauteur propose à ses pairs le projet, fragmentaire
et malheureusement jamais breveté, dune machine appelée
paléophone ( « la voix du passé »),
cest dans lidée dobtenir là encore «
des photographies de la voix, comme on en obtient des traits du visage
et ces photographies serviront à faire parler, ou chanter, ou
déclamer les gens, des siècles après quils
ne seront plus».
Mais dans ce cas lanalogie avec la lumière est doublement
motivée puisque C. Cros lui-même avait rendu public quelques
années auparavant un court texte consacré à la
Solution générale du problème de la photographie
en couleurs . Face à lévanescence, à
la perte et au négatif, quil sagisse dun photogramme
ou dun phonogramme, une identité doit être restituée.
Lappareil doit produire de lauthentique, se faire trace
ou empreinte. Le paradoxe de la technique est quelle se jauge
selon sa capacité à perpétuer du vivant. Car la
fabrication du disque phonographique chez C. Cros ne relève pas
seulement dune archéologie des voix défuntes et
oubliées. Elle procède dun désir de résurrection.
Lappareil devient un sujet second ou lagent du sujet disparu,
comme en témoigne la tournure factitive « faire parler
».
Le brevet Edison du phonographe fut accepté le 17 fèvrier
1878 et décrivait un appareil très simple.
Archives Edison "
The Edison papers "
Ainsi doit-on à un poète ce modèle
que T. A. Edison
parviendra à confectionner avec la complicité de J. Cruesi,
huit mois plus tard sous une forme différente, cylindre, manivelle
et diaphragme enregistreur capable, si on lui ajoute un pavillon, de
reproduire le son cette fois.
Il nest pas inutile de rappeler toutefois que la démonstration
du phonographe Edison se solda le 11 mars 1878 par un échec devant
lAcadémie des Sciences. En entendant le son nasillard qui
sortait de létrange boite, on crut dailleurs à
une plaisanterie et les plus malveillants subodorèrent un subterfuge
de ventriloque. Pourtant, assez vite, des séances découte
payantes sont organisées boulevard des Capucines, signe du succès
populaire que rencontre lappareil. En 1889, à la galerie
des machines de lExposition universelle, lobjet est finalement
présenté sous une version modernisée aux visiteurs
puis commercialisé avant dêtre détrôné
en 1895 par le graphophone de C. S. Tainer et G. Bell.
Bien souvent, en cabinet, lorthophoniste na pas à
disposition les outils technologiques pour analyser la voix de son patient,
il sappuie sur la puissance informative de son écoute analytique.
Néanmoins, comment garder trace de cette écoute dune
séance à lautre ?
Comment vérifier objectivement les ressentis subjectifs ?
A peu de frais, il est possible de séquiper dun système
denregistrement des signaux audio : un microphone adapté,
une carte son, un ordinateur. Le choix du matériel est important,
en particulier celui du microphone. Suivant les recommandations publiées
par Svec et Granqvist (2010), la réponse en fréquence
du microphone doit être plate (à 2dB près) dans
la zone de fréquence dintérêt (dans lidéal
de 20Hz à 20kHz), la dynamique appropriée pour permettre
lenregistrement sans distorsion des productions les plus sonores
et le rapport signal sur bruit suffisamment élevé (au
moins 15dB) pour permettre lenregistrement des productions les
moins sonores.
Analyse temps-fréquence du signal acoustique en sortie des lèvres
et du signal électroglottographique (EGG)
correspondant, à partir du logiciel OvertoneAnalyzer. Phrase
chantée par un baryton ("ave maria").
Lanalyse la plus simple à effectuer à partir dun
enregistrement du signal audio est de représenter visuellement
le son par les fréquences acoustiques quil contient et
leur évolution au cours du temps, comme le montre la figure ci
dessus.
Loreille humaine est intégrative et elle ne permet pas
toujours de distinguer avec précision les zones fréquentielles
où lénergie acoustique est renforcée ou atténuée.
Lanalyse temps-fréquence dun son met en évidence
les fréquences qui le constituent, leurs niveaux damplitude
et leurs variations temporelles. Cette représentation visuelle
dun son est appelée spectrogramme ou sonagramme. De nombreux
logiciels permettent cette visualisation de façon plus ou moins
automatique. Ils permettent de mesurer, sur le signal audio, des paramètres
acoustiques dintérêt pour lanalyse de la voix
parlée ou chantée, interprétables pour un clinicien
et complément indispensable de lanalyse perceptive. Des
caractéristiques acoustiques de la voix dans la parole peuvent
être objectivées, telles la fréquence fondamentale,
lintensité vocale, la coordination pneumophonatoire, les
fréquences formantiques et la richesse harmonique.
Quel logiciel choisir ? Le logiciel WaveSurfer est un logiciel gratuit
et simple dutilisation pour visualiser et analyser le son, la
fréquence fondamentale et la richesse harmonique. Le logiciel
Praat est également un logiciel gratuit dédition
et danalyse du son, mais il diffère par la complexité
de son usage. Une connaissance préalable de loutil est
nécessaire pour pouvoir en faire un bon usage. Une fois maîtrisé,
le logiciel Praat est un outil complet et paramétrable par lutilisateur.
Conçu pour lanalyse phonétique de la parole, il
permet lannotation des corpus. Le logiciel Overtone Analyzer,
développé initialement comme un outil de pédagogie
vocale, se distingue par une interface très conviviale complétée
dun clavier et dune portée musicale, pour un coût
modéré . Il présente lavantage de pouvoir
filtrer visuellement des fréquences harmoniques dans le signal
analysé pour un travail ciblé sur lécoute
du timbre par exemple.
Le premier paramètre dimportance est la fréquence
fondamentale, qui renseigne sur la hauteur de la voix, sa stabilité
au cours de la production, sa plage de variabilité. La fréquence
fondamentale se mesure sur les parties voisées du signal acoustique,
cest-à-dire pour la production vocale qui met en jeu la
vibration des plis vocaux. Sa définition et son calcul requièrent
une stabilité de la durée du cycle vibratoire glottique
sur plusieurs cycles consécutifs. Quand cette durée est
modifiée de façon notable dun cycle glottique à
lautre lors de la production de voix pathologique, la mesure de
fréquence fondamentale perd de son sens. Il peut être alors
intéressant de comparer les durées de cycles glottiques
successifs. Cest ce que propose le paramètre vocal connu
sous le nom de jitter, qui représente une mesure des perturbations
à court terme de la fréquence fondamentale du signal sonore
exprimée en pourcentage. Le jitter se calcule comme le rapport
entre la moyenne de toutes les différences de durées entre
deux cycles glottiques successifs (en valeur absolue) et la durée
moyenne dun cycle. Selon le manuel du logiciel Praat, le seuil
normal/pathologique de jitter est fixé à 1,04%.
Un jitter élevé reflète une variabilité
importante dans la durée du cycle glottique. Un autre paramètre
de perturbation, le shimmer, reflète les perturbations à
court terme de l'amplitude du signal sonore. La moyenne des différences
entre l'amplitude maximale de deux cycles glottiques successifs (en
valeur absolue) est divisée par la moyenne des amplitudes maximales
de chaque cycle. Le seuil normal/pathologique est fixé à
3,81 %. Ces deux paramètres de perturbation sont mesurés
lors de la production dune voyelle tenue. La pertinence de ces
mesures dans lanalyse des
voix pathologiques est souvent questionnée (Bielamowicz et al.,
1996). Comme le soulignent Baken et Orlikoff (1997), les mesures acoustiques
de la voix, et en particulier les mesures de perturbation, ne présentent
pas de corrélation cliniquement utile avec des catégories
de troubles vocaux spécifiques.
Elles ne permettent en aucun cas le diagnostic. La capacité à
parler fort est reflétée par la mesure de lintensité
moyenne. Seule une intensité calibrée, indépendante
du volume d'enregistrement, permet une mesure comparative entre enregistrements.
La coordination pneumo-phonatoire peut être évaluée
à travers la mesure du temps maximum de phonation sur une voyelle
(TMP en moyenne de 15s pour les femmes et de 20s pour les hommes), le
rapport de durée de la consonne sourde /s/ divisé par
celui de son équivalent sonore /z/ (rapport équivalent
à 1 dans le cas dune coordination optimale). Le rapport
de durée entre parties voisées et parties non voisées
est également informatif de lusage vocal du sujet ou du
patient.
Lanalyse du signal audio mesuré en sortie des lèvres
permet aussi destimer la fonction de transfert acoustique du conduit
vocal et den déduire les fréquences et largeurs
de bande des formants. Les formants sont des zones spectrales dénergie
renforcée par laction de résonance des cavités
qui constituent le conduit vocal. Leur positionnement conditionne notre
perception des voyelles. Pour lanalyse formantique, le logiciel
Praat est le logiciel danalyse de la voix le plus approprié,
car il permet de tracer lévolution des fréquences
formantiques sur lanalyse spectrographique du signal.
Dautres paramètres de timbre reflètent la richesse
harmonique, à travers la mesure de rapports damplitude
entre les différents harmoniques dun son voisé.
Il y a très certainement un intérêt
à sinspirer des approches développées dans
le milieu scientifique pour effectuer des mesures objectives du comportement
vocal dun patient. Même si certains paradigmes expérimentaux
nécessitent un équipement sophistiqué et coûteux,
cest le cas de lIRM par exemple, de nombreux protocoles
reposent sur des évaluations parfaitement réalisables
en cabinet orthophonique. Lusage du logiciel Praat qui se répand
de plus en plus dans la pratique orthophonique en est un bel exemple
illustratif. Il permet à la fois de prendre les données
et de les analyser. Corrélée à lanalyse perceptive
de la voix du patient et à lauto-évaluation de la
qualité de voix, lanalyse acoustique apporte des éléments
quantitatifs nécessaires à labord de la pathologie
vocale. Lanalyse de scènes vidéo permet de conserver
une trace de lévaluation du patient et dévaluer
à posteriori les gestes posturaux, respiratoires et articulatoires
du patient.
Nous vivons à lère du numérique
et les signaux analogiques captés par ces différents outils
de mesure sont convertis en signaux numériques avant dêtre
sauvegardés sur un ordinateur ou dêtre transmis à
l'autre bout du monde avec nos téléphones mobiles.
Cette opération de conversion analogique/numérique a un
impact sur les signaux quil est important de connaître.
Le premier aspect de cette conversion est léchantillonnage
du signal : il existe une durée non nulle entre deux mesures
successives. La fréquence de prise de mesure, quon appelle
fréquence déchantillonnage, va définir la
précision de linformation enregistrée. Plus cette
fréquence sera élevée, plus les variations rapides
du signal (fluctuations hautes fréquences) seront prises en compte.
Dans le cas dun signal audio de parole, il est nécessaire
davoir de linformation fréquentielle dans toute la
bande audible, donc de préférence jusquà
des fréquences de 16kHz à 20kHz. Ceci impose davoir
une fréquence déchantillonnage au moins deux fois
supérieure à la fréquence limite dintérêt
(Théorème de Shannon). Les cartes dacquisition proposent
des fréquences déchantillonnage à 44,1kHz
ou 48 kHz, ce qui permet de couvrir la gamme des fréquences audibles.
Si ces fréquences déchantillonnage conviennent bien
à lenregistrement de signaux audio, il nest parfois
pas nécessaire de recourir à une telle précision
temporelle pour des signaux qui évoluent lentement au cours du
temps. Certains signaux, les signaux de débit ou de pression
aérodynamique par exemple, ne demandent pas de fréquence
déchantillonnage très élevée car ils
évoluent lentement au cours du temps.
Le second aspect de cette conversion est la quantification du
signal : le signal est décrit par une quantité finie de
valeurs du fait de la capacité de codage (généralement
sur 16 bits). La quantification entraîne, comme léchantillonnage,
une perte de données et un bruit éventuel (bruit de quantification).
La quantification des données entraîne une imprécision
sur les données inhérentes à ce processus.
Cette imprécision peut également dépendre de loutil
de mesure, des conditions dacquisition. Aucune mesure ne permet
dapprocher la réalité de façon exacte. Evaluer
la précision dune mesure et lintervalle dincertitude
reflète la qualité dune approche expérimentale,
gage dune démarche
scientifique rigoureuse et réfléchie. Nombreuses sont
les études qui donnent des mesures à 2 ou 3 chiffres après
la virgule, alors que loutil de mesure ne permet pas, et de loin,
une telle précision.
Lévaluation de lincertitude dune mesure nécessite
de connaître les caractéristiques de précision de
loutil de mesure et celles de la conversion analogique-numérique.
Il est à mentionner ici que la sauvegarde de données sous
des formats compressés, comme par exemple lencodage mp3
de signauxaudio, est à proscrire car il y a toujours une perte
dinformation dans ces encodages.
Voici un rappel quelques informations
essentielles sur l'utilisation des techniques numériques
en téléphonie à propos du multiplexage 32 voies
appelé par la suite système MIC (Modulation par
Impulsion et Codage).
Le théorème d'échantillonnage de Nyquist stipule
qu'un signal analogique à bande passante limitée peut
être représenté pratiquement parfaitement si
le signal est échantillonné à une fréquence
de deux fois la bande passante. Un signal vocal est considéré
comme ayant une bande passante d'environ 3 kHz (300 Hz à
3 400 Hz) et donc, en principe, pourrait être représenté
par une séquence d'impulsions résultant d'un échantillonnage
à environ 6 kHz. Des considérations pratiques dictent
cependant l'utilisation d'une fréquence d'échantillonnage
plus élevée et en téléphonie 8 kHz est
devenu la norme. L'amplitude des impulsions échantillonnées
est quantifiée (logarithmiquement) et représentée
par un nombre binaire à huit chiffres, sept chiffres indiquant
le niveau et le huitième le signe. Un canal téléphonique
numérisé est alors un flux binaire de 64kb/s dans
chaque sens. Le simple remplacement d'un canal analogique par un
canal numérique offre très peu d'avantages mais l'approche
numérique permet l'utilisation du multiplexage temporel (TDM)
et il est possible de multiplexer jusqu'à 30 canaux, formant
un flux binaire de 2Mb/s.
- Étape 1 : Échantillonnage.
C'est un peu e même principe que le cinéma 24 photos
par seconde suffisent pour tromper l'oeil et voir la scéne
avec une bonne fluidité.
En téléphonie classique avec des téléphones
basiques qui existent depuis l'invention du téléphone,
les signaux analogiques vocaux (ainsi que les tonalités transmises)
d'une conversation en cours entre deux abonnés sont tout
d'abord échantillonnés à la fréquence
de 8.000 Hz. (Un échantillon vocal est prélevé
et mesuré toutes les 125 µs. Ceci signifie que l'on
effectue 8.000 mesures de tension à chaque secondes.)
Un tel échantillonnage permet de pouvoir reconstituer à
chaque extrémité de la chaîne de commutation
et de transmission les conversations de manière fidèle
jusqu'à une fréquence maximale audible de 4.000 Hz,
limite suffisante pour reconstituer des conversations en cours qui
soient compréhensibles. L'échantillonnage est en fait
une approximation d'un signal analogique dans le temps. - Étape 2 : Quantification.
Une fois les échantillons vocaux prélevés toutes
les 125 µs, il est nécessaire de procéder à
une seconde approximation : l'approximation en niveau de tension.
En effet, un signal analogique étant susceptible de prendre
une infinité de valeurs entre une tension A et une tension
B, cet aspect impose de réduire les valeurs de tensions possibles
de ces échantillons en un nombre limité de valeurs-étalons.
La valeur de sortie de l'étage de quantification est la valeur-étalon
de référence la plus proche de la valeur réelle
de la tension d'échantillonnage d'entrée.
Il a été retenu, en norme téléphonique,
que les niveaux de tensions échantillonnées seraient
compris entre 256 niveaux de tensions différents (256 valeurs-étalons).
(Chaque échantillon est donc systématiquement arrondi
en une valeur numérique comprise entre une valeur comprise
entre 0 et 255.)
Une telle quantification, même s'il ne s'agit pas de Haute-Fidélité
telle que l'on pourrait la qualifier en acoustique, permet en norme
téléphonique, le codage de suffisamment d'états
d'amplitude possibles des signaux vocaux. Étape 3 : Codage.
Puis ces échantillons vocaux, qui peuvent prendre 256 valeurs
différentes sont convertis en numération binaire (en
base 2) sur des mots d'une longueur de 8 bits. À partir de
là, les échantillons sont devenus des nombres exprimés
en base 2, c'est à dire par un nombre au format de 8 chiffres,
dont chaque chiffre peut prendre la valeur 0 ou 1.
Comme ces signaux codés sont échantillonnés
à la fréquence de 8.000 Hz, sur un mot binaire de
8 bits, le débit équivalent en éléments
binaires par secondes (e.b/s) sera de 8.000 Hz x 8 bits = 64.000
bits/s. Bit se traduit par Élément Binaire : 0 ou
1.
Il serait déjà avantageux de réaliser des transmissions
sur de longues distances sous forme numérique, car l'intérêt
premier serait de pouvoir amplifier de manière peut coûteuse
la liaison numérisée, étant donnée que
nous savons à l'avance qu'à un instant donné,
la valeur théorique transportée est soit égale
à 0, soit égale à 1. Par contre, nous ne pourrions
transporter sur de longues distances qu'une seule voie téléphonique
simultanément, ce qui finalement ne s'avérerait pas
très avantageux... Il faut donc trouver un moyen supplémentaire.
Le Multiplexage Numérique. Lorsque nous avons échantillonné à chaque
instant T, toutes les 125µs, en fait, cet instant T a duré
3,90µs. (durée fixée par les normes téléphoniques
: il faut l'instant le plus court possible, mais tout en gardant
une durée suffisamment longue de sécurité,
eu égard aux tolérances des composants électroniques,
qui eux, sont bien réels, et ne sont pas des formules mathématiques
parfaites...)
Donc, sur une liaison numérique, nous voyons qu'il y a un
temps mort de 125µs - 3,90µs = 121,10µs.
Puisqu'il existe un si grand temps mort entre deux échantillons
numériques vocaux, pourquoi ne pas y insérer d'autres
échantillons vocaux émanant d'autres conversations
téléphoniques ?
Ainsi nous pourrions transmettre sur une même liaison numérique
125µs/3,90µs = 32 conversations téléphoniques
numérisées à la fois ! En fait, si la durée
d'échantillonnage est de 3,90µs, nous avons 32 Intervalles
de Temps disponibles (IT) pour faire circuler à la fois successivement
et simultanément 32 conversations téléphoniques.
C'est ce que l'on appelle le Multiplexage Numérique : à
partir d'une simple liaison numérique, nous pouvons acheminer
simultanément 32 voies téléphoniques, de quoi
faire disparaître la pénurie de capacités de
voies de transmissions de conversations, en réutilisant les
liaisons métalliques existantes, qui ne peuvent acheminer
en basses fréquences qu'une seule conversation à la
fois...
Le Multiplexage Numérique est en fait un système Multiplex
à répartition dans le temps.
Ces signaux numérisés sous forme de mots binaires
de 8 bits, émanant d'une conversation en cours, avec un débit
binaire de 64.000 bits/s, sont ensuite insérés dans
une voie d'un Circuit MIC, et ce côte à côte
avec d'autres signaux provenant d'autres conversations en cours.
(jusqu'à 30 conversations téléphoniques simultanées
peuvent circuler sur une même liaison MIC.)
Un Circuit MIC est équipé de 32 voies, car une Liaison
MIC est "découpée" en 32 Intervalles de
Temps de 3,90µs chacun.
Mais seulement 30 voies sont en réalité réservées
au transport des conversations téléphoniques, car
2 voies sont notamment affectées à la synchronisation
et au contrôle d'erreur. En effet, parmi les 32 voies, numérotées
de 0 à 31,
- la voie 0 est destinées à la synchronisation : qui
doit permettre d'indiquer aux équipements de multiplexage
(ou de démultiplexage) quel est le premier Intervalle de
Temps parmi les 32 possibles,
- la voie 16 est destinée par convention à l'échange
de signaux de signalisation (dialogues) entre équipements
téléphoniques, pour permettre l'aiguillage des conversations,
le contrôle d'erreurs etc...
Le risque de diaphonie (mélange) entre plusieurs conversations
est quasiment inexistantant.
Une fois multiplexés, les signaux des 30
voies de conversations téléphoniques sortent sur
une Liaison M.I.C.
C' est une discipline dont lobjectif est de produire de façon
artificielle (mécanique ou électronique) des effets sonores
imitant la voix humaine. Elle permet de convertir des textes écrits
en une forme vocalisée. Les anglo-saxons parlent alors de Text
to Speech ou TTS.
Outre la lecture de textes à destination de personnes malvoyantes
ou non voyantes, la synthèse vocale entre notamment en application
dans le cadre dinterfaces hommes machines sonores. Elle est dans
ce cas utilisée conjointement avec une technologie de reconnaissance
vocale, dont le but est de retranscrire un message sonore sous une forme
intelligible pour lordinateur (qui consiste donc à réaliser
lopération inverse du point de vue conceptuel, bien que
le processus soit totalement différent).
La synthèse vocale fait désormais partie de notre quotidien.
Elle est présente dans nos smartphones, nos GPS ou encore dans
nos salons avec les enceintes connectées. Elle est également
plébiscitée pour la simplification des interactions quelle
permet. Les voix dAlexa ou de Google Home sont aujourdhui
très proches de réelles voix humaines. Mais obtenir un
résultat aussi naturel et agréable à loreille
a nécessité des dizaines dannées de recherche.
Du siècle des Lumières aux années 30
Doter la machine de la parole a toujours intéressé les
savants. Leffervescence créative du siècle des Lumières
a été marquée par la création dautomates.
La volonté de les faire parler est apparue en parallèle.
Lidée de la synthèse vocale commence à se
développer. Des machines à parler mécaniques sont
notamment construites, comme la Speaking machine de Wolfgang von Kempelen,
en 1791.
Depuis sa création, plusieurs chercheurs ont repris le travail
de Wolfgang von Kempelen en y intégrant les nouvelles technologies
développées à leur époque.
En 1939, une université allemande reproduisait par exemple la
Speaking machine comme nous pouvons le voir dans la photo ci-dessous.
synthèse vocale, lumières, machine.
Réplique de la Speaking Machine de Kempelen construite en 2007
par le Département de Phonetics, Saarland University, Saarbrücken,
Germany.
Cette machine mécanique peut être considérée
comme un instrument à vent. Elle est constituée de différentes
parties sensées remplacer les fonctions de différents
organes de lanatomie humaine entrant en action dans lémission
de sons : poumons, thorax, narines, glotte et bouche .
Serge DURIN, facteur dinstruments à vent,
teste la machine parlante reconstruite daprès le traité
écrit par le baron WOLFGANG VON KEMPELEN.
Synthèse vocale électronique : le
Voder et le Vocoder
Durant tout le début du 20e siècle, plusieurs chercheurs
travaillent sur la synthèse vocale. Parmi eux, les laboratoires
Bell, qui vont marquer lhistoire de linformatique et de la
synthèse vocale.
De 1936 à 1939, les laboratoires Bell développent, sous
la direction de lingénieur acoustique et électronique
Homer Dudley, le premier synthétiseur vocal électronique.
La synthèse vocale de cette machine se fait via une interface rappelant
celle dune machine à écrire. Les commandes étaient
constituées dun clavier ainsi que de pédales permettant
de moduler les effets sonores.
Le Voder est une version simplifiée du célèbre
Vocoder développé par Homer Dudley de 1926 à 1939.
Le Vocoder, dont le nom est la contraction de Voice Encoder
a été conçu suite à la volonté des
laboratoires Bell de réduire le coût des appels téléphoniques
transcontinentaux. Pour cela, il effectuait une opération dencodage
du côté de la personne parlant et décodait le signal
du côté de la personne qui lécoutait. Cela
permettait de faire transiter un minimum dinformations et donc
déconomiser de la bande passante.
Lastuce consistait à découper le signal sonore en
une multitude de plages de fréquences grâce à des
filtres passe-bande. Ainsi il était possible danalyser
lamplitude du signal de chacune de ces plages de fréquences.
Ces caractéristiques étaient ensuite appliquées
à une fréquence fondamentale transformée en y appliquant
les modulations provenant des différentes bandes. (Pour en savoir
plus, voir la présentation rédigée par Thomas Carney
dans le cadre du Graduate Program in Audio and Acoustics, de luniversité
de Sidney)
Illustration provenant de la vidéo The
secret history of Vocoder
Le Vocoder a été utilisé à
partir de 1943 par larmée américaine dans le cadre
du système SIGSALY. Il a succédé au système
A-3 dont les fonctionnalités de cryptage commençaient
à être jugées insuffisantes pour les transmissions
audio durant la Seconde guerre mondiale. Les sonorités synthétiques
et métalliques du Vocoder sont désormais de notoriété
publique. Elles ont en effet été réutilisées
dès la fin des années 1960 dans de nombreux films (notamment
pour faire parler des robots) et en musique à des fins artistiques.
Il sagit encore aujourdhui dun effet très utilisé
dans de grands hits musicaux dartistes comme Daft Punk par exemple.
Nous vous invitons à visionner cette vidéo
anglophone publiée par The New Yorker, intitulé The Secret
History of the Vocoder (LHistoire secrète du Vocoder).
Elle illustre la diversité des usages de cet appareil.
Les travaux sur la reconnaissance de la parole datent
du début du XXe siècle.
Le premier système pouvant être considéré
comme faisant de la reconnaissance de la parole date de 1952.
Ce système électronique, développé par Davis,
Biddulph et Balashek aux laboratoires Laboratoires Bell, était
essentiellement composé de relais et ses performances se limitaient
à reconnaître des chiffres isolés.
En 1952, alors que la recherche financée par le gouvernement
américain prenait de l'ampleur, les laboratoires Bell développèrent
un système de reconnaissance automatique de la parole capable
d'identifier les chiffres de 0 à 9 prononcés au téléphone.
Des progrès majeurs suivirent au MIT. En 1959, un système
identifia avec succès les voyelles avec une précision
de 93 %. Sept ans plus tard, un système doté d'un vocabulaire
de 50 mots fut testé avec succès.
Au début des années 1970, le programme SUR donna ses premiers
résultats substantiels. Le système HARPY, à l'université
Carnegie Mellon, pouvait reconnaître des phrases complètes
constituées d'un nombre limité de structures grammaticales.
Mais la puissance de calcul nécessaire était prodigieuse
; il fallait 50 ordinateurs contemporains pour traiter un canal de reconnaissance.
La recherche s'est ensuite considérablement accrue durant les
années 1970 avec les travaux de Jelinek chez IBM (1972-1993).
La société Threshold Technologies fut la première
à commercialiser en 1972 un système de reconnaissance
d'une capacité de 32 mots, le VIP100. Aujourd'hui, la reconnaissance
de la parole est un domaine à forte croissance grâce à
la déferlante des systèmes embarqués.
Une évolution rapide :
1952 : reconnaissance des 10 chiffres par un dispositif
électronique câblé.
1960 : utilisation des méthodes numériques.
1965 : reconnaissance de phonèmes en parole continue.
1968 : reconnaissance de mots isolés par des systèmes
implantés sur gros ordinateurs (jusquà 500 mots).
1970 : Leonard E. Baum met au point le modèle caché de
Markov, très utilisé en reconnaissance vocale1.
1971 : lancement du projet ARPA aux États-Unis (15 millions de
dollars) pour tester la faisabilité de la compréhension
automatique de la parole continue avec des contraintes raisonnables.
1972 : premier appareil commercialisé de reconnaissance de mots.
1978 : commercialisation d'un système de reconnaissance à
microprocesseurs sur une carte de circuits imprimés.
1983 : première mondiale de commande vocale à bord d'un
avion de chasse en France.
1985 : commercialisation des premiers systèmes de reconnaissance
de plusieurs milliers de mots.
1986 : lancement du projet japonais ATR de téléphone avec
traduction automatique en temps réel.
1993 : Esprit project SUNDIAL2
1997 : La société Dragon lance « NaturallySpeaking
», premier logiciel de dictée vocale.
2008 : Google lance une application de recherche sur Internet mettant
en uvre une fonctionnalité de reconnaissance vocale
2011 : Apple propose l'application Siri sur ses téléphones3.
2017 : Microsoft annonce égaler les performances de reconnaissance
vocale des êtres humains4.
2019 : Amazon lance la reconnaissance vocale en consultation de médecine5
2023 : Nabla lance la transcription puis synthèse de consultation6
et classification CISP2 CIM10 du résultat de consultation.
Depuis 2024, de nombreux logiciels de transcriptions
utilisent l'intelligence artificielle : l'IA
Les systèmes de reconnaissance vocale modernes
utilisent des modèles du langage qui peuvent nécessiter
des gigaoctets de mémoire ce qui les rend impraticables, en particulier
sur les équipements mobiles. Pour cette raison, la plupart des
systèmes de reconnaissance vocale modernes sont en fait hébergés
par des serveurs distantsSVI et nécessitent
une connexion internet et l'envoi à travers le réseau
du contenu vocal.
- Cortana (Microsoft)
- Siri (Apple)
- Google Now (Google)
- Alexa (Amazon)
- Vocapia Research (VoxSigma suite)
- Vocon Hybrid et Dragon (respectivement dictée par grammaire
et dictée libre par Nuance Communications)
- LinTO (logiciel libre développé sous licence open source
par Linagora).
- Mozilla a lancé un projet communautaire, Common Voice, visant
à recueillir des échantillons de voix dans une base de
données libres, pour entraîner des moteurs de reconnaissance
vocale non-propriétaires...
Un serveur vocal interactif ou SVI (en anglais, interactive
voice response ou IVR) est un système informatique capable de
dialoguer avec un utilisateur par téléphone. Il est capable
de recevoir et d'émettre des appels téléphoniques,
de réagir aux actions de l'utilisateur (appui sur des touches
du téléphone, reconnaissance vocale ou reconnaissance
de son numéro téléphonique d'appel) selon une logique
préprogrammée, de diffuser des messages préenregistrés
ou en synthèse vocale, et d'accéder à des bases
de données d'autre part. Un serveur vocal interactif est généralement
capable de traiter de nombreux appels simultanés indépendants.
FERMA a été le premier à fournir
des systèmes où la parole était créée
par Text To Speech ("synthèse à partir
du texte") avec la technologie de diphones du CNET
développée à Lannion et aussi donnant la possibilité
de dialogue à partir à la fois de "postes à
cadran" et de postes à touche DTMF.
La technologie originale de traitement des signaux transitoires envoyés
par les cadrans était importante compte-tenu du parc limité
des postes DTMF et de l'absence de reconnaissance de parole multi-locuteur
de performance suffisante, les utilisateurs en étaient si convaincus
cette fonctionnalité "reconnaissance décimale"
faisait partie des obligations dans les appels d'offres publics audiotels
de la fin des années 1990.
De nombreuses applications vocales basées sur l'interactivité
par "téléphone décimal" ont pu se développer
à Taïwan et en Chine,pays où il y avait très
peu de DTMF à cette époque.
L'application IA pour la reproduction et la traduction
de lavoix
Le clonage de voix gratuit est une technologie basée
sur l'IA qui permet de reproduire la voix d'une personne à l'aide
d'algorithmes d'apprentissage automatique. L'application IA pour la
reproduction de voix en ligne vous permet de créer des audios
de haute qualité qui ressemblent étroitement à
la voix originale.
Lancé en septembre 2024 en dehors de lUnion européenne,
le nouveau mode « Avancé » de ChatGPT Voice
permet de discuter avec un assistant vocal futuriste qui comprend les
émotions, peut les imiter, accepte quon lui coupe la parole
et peut même faire des accents ou se lancer dans un jeu de rôle.
La France y a accès depuis le 22 octobre 2024.
Traduction instantanée et évolutive avec Language Weaver
La traduction automatique (TA), une forme précoce d'intelligence
artificielle linguistique et une ressource fiable dans le processus
de traduction, est disponible sur la plateforme Trados depuis des décennies.
Elle fournit une traduction instantanée que vous pouvez utiliser
de différentes manières : utilisez-la de manière
indépendante pour la traduction automatique, intégrez-la
dans vos processus pour une utilisation interactive ou choisissez d'en
affiner le résultat par le biais de la post-édition.
Si la traduction automatique vous intéresse, Language Weaver
est notre solution de traduction automatique évolutive, basée
sur l'IA, offrant les dernières avancées en matière
de traduction automatique sécurisée. Trados étant
au cur d'un riche capital technologique, nous vous offrons également
la possibilité de vous connecter à des dizaines de fournisseurs
de traduction automatique tiers, afin que vous puissiez personnaliser
et compléter votre solution en fonction de vos besoins.
AI Phone est une application d'appel téléphonique alimentée
par l'intelligence artificielle avec traduction en direct. La traduction
de conversation téléphonique en direct élimine
les barrières linguistiques et d'accent, vous permettant de communiquer
sans effort dans différentes langues pendant vos appels.
Les voix légendaires sexpriment
sur lIA dans le doublage CHATTANOOGA, TN Pour les enfants et parents de ma génération,
rien ne pouvait rivaliser avec les dessins animés du samedi matin,
accompagnés dun bol de céréales au chocolat.
Lorsque nous réentendons ces voix dautrefois, cela ravive
en nous des souvenirs de ces matinées lointaines. Avec lintelligence
artificielle en plein débat, la question se pose : sagit-il
vraiment de la voix de notre enfance, ou est-ce simplement le produit
dune IA ?
Au Comic Con de Chattanooga, deux voix emblématiques ont partagé
leurs expériences et leurs réflexions concernant lIA
dans le monde du doublage.
Selon Scott Innes, voix de Scooby-Doo, Shaggy et dautres personnages,
« Cest effrayant, vous savez ? Quand vous entrez dans
un magasin et que vous touchez un jouet qui danse en émettant
des sons que vous reconnaissez. Vous vous dites oui, cest
ma voix, mais je ne suis pas allé en studio pour cela.
Ensuite, vous contactez votre agent, qui vous informe quils ne
se sentent pas redevables car cela a été généré
sans que vous fassiez le moindre travail. Cest du vol, mais il
ny a pas encore de loi solide qui empêche cela. »
Rob Paulsen, qui incarne des personnages comme Pinky
dans « Pinky et le Cerveau », a une vision légèrement
différente. « Pour moi, Warner Bros possède Yako
dans Animaniacs. Sils reproduisent des segments existants pour
dautres usages, cela leur appartient. Je sais quils sont
impérativement tenus de me verser une rémunération
supplémentaire si cela est stipulé dans notre contrat.
Cependant, larrivée de lIA complique les choses.
Si Warner Bros possède la voix et le personnage et souhaite créer
quelque chose de nouveau avec, quelles sont les limites ? Cest
un monde audacieux qui souvre à nous. »
Un exemple marquant est celui de James Earl Jones, qui
a signé des droits dutilisation de sa voix pour le personnage
de Dark Vador.
Il est difficile dimaginer un film Star Wars sans cette voix iconique,
et Jones a été généreusement compensé
pour cela avant sa retraite. Cela soulève des interrogations
quant à ce que nous laisserons à lIA pour la suite
après tout, qui aurait pu anticiper les événements
du film Matrix sorti en 1999 ?
Notre Vision À lheure où la technologie, notamment lintelligence
artificielle, redéfinit des domaines créatifs comme le
doublage, il est essentiel de réfléchir aux implications
de cette évolution. La voix humaine, avec toutes ses nuances
et son expressivité, représente un aspect fondamental
de la narration. LIA peut certainement imiter, mais peut-elle
vraiment capturer lessence même de lémotion
humaine ?
En tant que professionnels, nous devons rester vigilants quant à
la manière dont ces technologies interfèrent dans nos
métiers et réfléchir à des approches qui
préservent notre savoir-faire tout en intégrant de manière
éthique les innovations technologiques. Cest avec une telle
perspective que nous pourrions naviguer dans ces nouveaux territoires
sans compromettre la richesse de notre art.