L’intelligence artificielle invente maintenant des sons qui n’ont jamais été entendus auparavant

En plus de nous battre, l’intelligence artificielle génère aujourd’hui de nouveaux sons jamais entendus auparavant, grâce à des mathématiques avancées combinées à des échantillons d’instruments réels. aux jeux de société, à la conduite de voitures et au dépistage du cancer,

D’ici peu, vous entendrez peut-être certains de ces nouveaux sons sortir de votre radio, car les chercheurs responsables disent qu’ils espèrent donner aux musiciens une nouvelle gamme presque illimitée d’instruments générés par ordinateur avec lesquels travailler.

Le nouveau système s’appelle NSynth et a été développé par une équipe d’ingénieurs appelée Google Magenta, une petite partie de l’effort plus vaste de Google en matière d’intelligence artificielle.

“En apprenant directement à partir des données, NSynth offre aux artistes un contrôle intuitif du timbre et de la dynamique et la possibilité d’explorer de nouveaux sons qu’il serait difficile, voire impossible, de produire avec un synthétiseur accordé à la main”, explique l’équipe.

Vous pouvez découvrir quelques échantillons de NSynth ci-dessous, avec l’aimable autorisation de Wired :

NSynth prend des échantillons d’environ un millier d’instruments différents et en mélange deux, mais de manière très sophistiquée. Tout d’abord, le programme d’IA apprend à identifier les caractéristiques audibles de chaque instrument afin de pouvoir les reproduire.

Cette connaissance détaillée est ensuite utilisée pour produire un mélange d’instruments qui ne ressemble pas à un mélange d’instruments – les propriétés de l’audio sont ajustées pour créer quelque chose qui ressemble à un instrument unique et nouveau plutôt qu’à un mélange de plusieurs sons.

Ainsi, au lieu d’avoir une flûte et un violon qui jouent ensemble, vous avez un tout nouvel instrument numérique piloté par des algorithmes qui se situe entre les deux. C’est au musicien de décider quelle part de la flûte et quelle part du violon se retrouve dans le son final.

Comme de nombreuses initiatives de Google en matière d’intelligence artificielle, NSynth repose sur l’apprentissage profond, une approche spécifique de l’intelligence artificielle qui permet de traiter de grandes quantités de données de la même manière que le cerveau humain, raison pour laquelle ces systèmes sont souvent décrits comme des réseaux neuronaux artificiels.

Ainsi, non seulement les systèmes d’apprentissage profond peuvent utiliser des millions de photos de chats pour identifier correctement un chat, par exemple, mais ils peuvent également apprendre de leurs erreurs et s’améliorer au fil du temps, en apprenant à s’améliorer – tout comme le fait notre cerveau.

L’idée de l’apprentissage profond existe depuis des décennies, mais ce n’est que maintenant que nous voyons apparaître le type de logiciel et la puissance de calcul qui peuvent en faire une réalité.

L’une des conséquences de cette évolution est que les démos NSynth construites par l’équipe de Google Magenta fonctionnent toutes en temps réel, ce qui permet de créer de nouvelles compositions.

Le critique musical Marc Weidenbaum a déclaré à Wired que la nouvelle approche de Google concernant l’astuce traditionnelle consistant à combiner des instruments ensemble est prometteuse.

“D’un point de vue artistique, cela pourrait donner des résultats intéressants, et comme il s’agit de Google, les gens suivront leur exemple”, a-t-il déclaré.

Les ingénieurs de Google viennent de faire une démonstration de NSynth au festival Moogfest, et vous pouvez lire un article sur leurs travaux sur arXiv.