
Rappeuse déter et engagée, Pumpkin est coordinatrice pédagogique du Summer Camp...
Le 30 avril 2025 — par Trempo
DeLaurentis, musicienne à la croisée des mondes électroniques et vocaux, explore depuis plusieurs années les possibilités offertes par l’intelligence artificielle. Reconnue pour son univers hybride, elle utilise un ensemble de logiciels pour façonner une identité musicale unique. Son expertise l’amène à participer à l’événement Espaces Latents, forum dédié aux formes émergentes de création en intelligence artificielle, où elle est invitée les mardi 20 et mercredi 21 mai pour un workshop et un live. Dans un entretien exclusif, DeLaurentis partage sa vision sur ces nouvelles pratiques artistiques.
Ma première création avec l’IA remonte à 2018, alors que je travaillais sur Unica, un album-concept centré sur une entité née de machines. J’y ai imaginé une sorte de double numérique – ma “sœur” artificielle, comme j’aime l’appeler. Pour cela, je cherchais un modèle d’IA avec lequel interagir. C’est à ce moment-là que j’ai rencontré le musicien Benoît Carré, qui travaillait alors au Spotify Creator Technology Research Lab. Il m’a parlé d’un projet où des développeur·euses cherchaient à collaborer avec des artistes. J’ai accepté sans hésiter. J’ai passé un an dans leurs laboratoires.
À l’époque, les outils étaient encore balbutiants. Il m’arrivait de ne retenir que 10 % d’un morceau généré, mais c’était déjà une matière avec laquelle composer.
On travaillait avec des synthèses vocales hybrides, des générateurs de notes MIDI, d’harmonies, de textures… Ma voix était samplée, détournée. Les possibilités étaient déjà vertigineuses. En 2020, j’ai poursuivi mes explorations artistiques avec Sony CSL (ndlr : concepteur de Flow Machines), dont les technologies m’ont impressionnée par leur réalisme. Je n’entendais plus la différence entre mes instruments “classiques” et ceux générés par IA. En 2022, l’arrivée de ChatGPT a bouleversé la perception du grand public et des professionnel·les pour l’IA. D’un coup, mon travail suscitait un autre type d’attention, plus curieuse, plus vaste.
Un de mes favoris, c’est Notono. Il permet de faire « matcher » des sons d’orgue, de cuivres, de piano, de voix… jusqu’à créer un synthétiseur entièrement personnalisé. Pour les percussions, j’utilise DrumGAN, un générateur de sons de batterie à partir de samples. Je peux, par exemple, transformer ma voix en sidekick. Avec Synplant, je vais encore plus loin : l’IA génère de nouveaux sons à partir d’un échantillon donné. Elle transforme une matière brute en textures inédites. Même dans des domaines comme le mastering, l’IA est désormais omniprésente. Ozone ou certains plugins récents intègrent des moteurs intelligents qui affinent et proposent des ajustements.
Oui. Musicfy ! Ça a véritablement changé ma pratique. C’est un outil de clonage vocal très fin. J’ai pu, par exemple, fusionner ma voix avec celle d’un homme. Le résultat garde mes inflexions, mon interprétation… mais le timbre est celui d’un autre corps que le mien. Un exemple amusant : j’ai chanté Billie Jean de Michael Jackson via Musicfy. Évidemment, je suis loin de son registre, mais grâce à l’IA, j’ai trouvé ma personnalité vocale, mon groove, tout en ayant une expressivité qui m’aurait autrement été inaccessible.
J’ai envie d’évoquer Bluebird on the Dune, co-composé avec une artiste californienne. Grâce à Musicfy, nos deux voix ont littéralement fusionné : lorsqu’elle chante, sa voix permute avec la mienne. On a créé une entité vocale hybride, qui n’existait pas avant. C’est une sensation vertigineuse, celle d’ouvrir une porte sur un futur encore inconnu. Sur cet album j’ai aussi énormément travaillé les chœurs. Chaque voix a été générée à partir de la mienne, puis mixée avec une précision chirurgicale. C’est une forme d’artisanat numérique.
Un laptop, un bon micro, une carte son, une connexion internet : rien d’extravagant. Les modèles sont accessibles en ligne, souvent via des abonnements peu onéreux. Musicfy, par exemple, coûte quelques euros par mois. Il faut en revanche consacrer du temps à l’entraînement du modèle.
Pour Musicfy je me suis enregistrée de la note la plus grave à la plus aiguë, en essayant de couvrir un maximum de nuances : des attaques franches, des notes liées, des sons projetés, d’autres plus soufflés… Le souffle, justement, est essentiel : il donne une vraie couleur à la voix, une expressivité particulière.
L’idée, c’est d’offrir à l’IA une palette aussi riche et variée que possible. La tessiture d’une soprano comme moi couvre environ deux à trois octaves, donc c’est vite limité en termes de registre. Même si chaque couleur nécessite un entraînement spécifique : je travaille différentes textures vocales, une voix soufflée, une voix murmurée, une voix plus lyrique…. C’est toute cette matière que l’IA va ensuite utiliser pour entraîner le modèle.
Pas vraiment. C’est même l’inverse : travailler avec l’IA demande un investissement temps énorme. Je passe huit à dix heures par jour en studio même si la création pure ne représente qu’une partie de ce temps. L’inspiration peut venir très vite, c’est vrai, mais ensuite il faut raconter une histoire, structurer, mixer, digérer… Tout ce processus demande du temps. Il y a aussi l’expérimentation, les réglages, les erreurs, qui deviennent d’ailleurs des occasions de création. Même les outils supposés simples ou grand public, comme Suno, que je n’utilise pas, exigent de l’attention. Il faut tester, affiner, recommencer. L’idée qu’on puisse créer sans effort est une illusion. L’IA ne permet pas d’aller plus vite, mais de créer autrement. Comme quand Brian Eno découvre le Yamaha DX7 : il ne cherche pas l’efficacité, il explore une nouvelle esthétique.
Il y a un lien très fort entre l’outil et la musique qu’il rend possible. Récemment j’ai vu une interview de Sébastien Tellier où il raconte qu’il venait de recevoir son Yamaha CP-80 ; il passe la nuit dessus et, de là, naît son titre phare La Ritournelle. Un nouvel instrument, un nouvel outil, ça reste toujours une source d’inspiration. Pourtant j’attends encore qu’un véritable mouvement, une esthétique nouvelle, émerge de tout ça. À l’époque, dans la petite cellule de recherche chez Spotify, on ambitionnait de créer la « musique du futur ».
Mais en réalité, l’IA aujourd’hui ne fait que reproduire ce qui existe déjà. On n’y est pas encore, pour ce qui est d’un nouveau style. C’est d’ailleurs pour ça qu’il est essentiel de reprendre la main sur les morceaux générés, de retravailler, de détourner.
Je pense que c’est cette zone grise qui inquiète les gens : ils projettent sur l’IA une capacité de création autonome, alors qu’en réalité, elle transforme surtout la manière de créer, mais pas encore vraiment le son. Le vrai enjeu, c’est de détourner les outils. Quand on te dit qu’un outil est conçu pour faire une chose, la première chose à faire, c’est de réfléchir à comment tu peux l’utiliser autrement. Je me souviens, chez Sony CSL, j’ai mis ma voix dans un générateur de batteries. Ils m’ont regardée avec surprise : personne n’avait pensé à faire ça. C’est aussi ça, le rôle d’un·e artiste : être les premiers à explorer, à bricoler, à inventer des usages imprévus.
Des modèles d’IA pour le live, il y en a très peu aujourd’hui. L’IRCAM travaille sur des outils comme OMax, mais à ma connaissance il n’existe pas encore de solution optimale pour la scène. Ce que j’aime, en live, c’est justement d’utiliser d’autres outils que l’IA et de me laisser guider par l’aléatoire. C’est aussi là que se niche une forme de poésie, d’imprévu. D’ailleurs, ce n’est pas un hasard si les synthés modulaires reviennent autant en ce moment. Il y a ce besoin de retrouver une part d’improvisation. Et pour moi, l’IA sur scène devra tendre vers ça : une forme de dialogue vivant, d’interaction libre, pas juste une reproduction figée.
Début 2024, j’ai parlé avec les équipes de Sony CSL : je leur ai dit que je rêvais d’une IA capable d’interagir en live avec ma voix, de manière fluide, organique. Pour l’instant, c’est complexe techniquement. Mais sur mon live, il y a un moment où j’intègre une IA qu’on a appelée Sinvocea et qui a été créée spécialement pour mon projet. Elle génère des visuels en temps réel à partir de ma voix. C’est un passage un peu suspendu, où je prends le temps d’expliquer au public ce qui est en train de se passer. C’est souvent un moment fort, émotionnel, parce que les gens voient littéralement une œuvre se créer sous leurs yeux, et qui ne pourra jamais être reproduite à l’identique.
Plus généralement l’IA permet aussi à des musicien·nes de développer un univers plus visuel. Pour mon dernier album, qui explore l’idée de synesthésie, j’ai aussi travaillé l’imaginaire visuel grâce à l’IA. J’ai utilisé Midjourney et Dall-E pour constituer une sorte de moodboard, un tableau de correspondances entre émotions, couleurs et formes qui nous a servi de matière brute pour développer la DA. Même les clips ont bénéficié de ces outils. Lors d’un tournage au Maroc, on a utilisé l’IA pour ajouter du sable aux images du clip Bluebird on a Dune qui sortira prochainement.
Je dirais qu’avant tout, il faut être passionné·e de musique, de production, et avoir une curiosité constante pour ce qui se passe. Se tenir informé·e, c’est déjà une grande partie du chemin. Et aujourd’hui, avec les algorithmes de recommandation, les nouveautés sont très vite mises en avant. Beaucoup d’outils proposent des versions gratuites ou des essais, donc le mieux, c’est encore de tester soi-même, de se faire son propre avis et son propre usage.
Ce que je remarque aussi, c’est que la plupart des discussions autour de l’IA musicale se concentrent sur une seule chose : Suno, ou d’autres générateurs de morceaux instantanés. Personnellement, je suis très éloignée de ça. Alors qu’en réalité il y a beaucoup d’autres outils qui ne sont finalement pas si différents des plugins ou logiciels qu’on utilise déjà.
Et puis, il faut savoir que 90 % des outils qu’on utilise aujourd’hui – en mixage, en mastering, en design sonore – intègrent déjà des moteurs d’IA. Simplement, on n’en parle pas comme tel. À un moment donné, l’intelligence artificielle s’est fondue dans la pratique, elle est devenue invisible.
Ce n’est pas une rupture brutale, c’est une évolution dans les usages. Et c’est peut-être ça qu’il faut aussi démystifier.
C’est une question essentielle, même si, dans le feu de la création, quand je suis en studio, je n’y pense pas toujours. Mais on doit en prendre conscience, élargir notre regard à toute la chaîne : de l’impact énergétique à la question des données, en passant par ce qu’on transmet à travers les outils qu’on utilise. C’est aussi, pour moi, une question politique. Il faut que celles et ceux qui nous gouvernent s’en emparent sérieusement, pour penser des solutions concrètes qui permettent de préserver la planète. Les technologies sont là, profondément intégrées à nos vies.
On n’a pas besoin de tout, ni de toujours courir après les modèles les plus récents ou les plus puissants. Il y a quelque chose de très beau dans le fait de développer un son, une identité, avec peu de moyens, avec des outils simples, choisis.
Il faudrait aussi pouvoir encadrer ces technologies pour qu’elles soient plus vertueuses, plus durables. Et surtout, défendre des modèles d’IA alternatifs : des modèles qui seraient nourris par d’autres répertoires que les bases de données occidentales, par exemple. Intégrer des musiques traditionnelles (ndlr voir le projet DJazz), locales, invisibilisées, c’est une manière de rééquilibrer la création. Sinon, à terme, on risque d’écouter uniquement des musiques formatées par les standards de la Silicon Valley. Et ça, ce serait une vraie perte de diversité, de culture, d’imaginaire.
Propos recueillis Adrien Cornelissen pour Stereolux et Trempo
Du 19 au 22 mai, le forum Espaces Latents offre un espace unique de rencontre entre artistes, designers, musicien·nes, technicien·nes du spectacle, étudiant·es ou autre professionnel·les souhaitant explorer comment intégrer les outils d’IA dans leurs processus de création et de production. Au programme : Rencontres pros, conférences, workshops, installations et live.