Comment l’IA stimule la créativité : trois projets qui transforment la lecture, le dessin et la photographie

L’intelligence artificielle continue de s’accompagner de messages catastrophistes et de doutes quant à son impact sur les professions créatives, au-delà de ses applications dans les tâches automatisables. Loin de cette vision décourageante, nous avons compilé trois projets qui multiplient l’inspiration et immergent la lecture, transmutent la photographie et la poésie, ou permettent de transformer les dessins en compositions sonores.

 

Lisez avec une dose supplémentaire d’imagination

Augmented Reading, développée par la Bibliothèque nationale de Singapour en partenariat avec Snap et LePub Singapour, propose précisément cela : ajouter une atmosphère propice à la lecture. Le système utilise des prototypes de Snap Spectacles avec des lunettes de lecture à réalité augmentée qui activent des effets audiovisuels en temps réel lorsque la personne parcourt le texte. La bibliothèque publique de Singapour a elle-même expliqué que ces prototypes seront testés dans une bibliothèque sélectionnée et qu’une version du projet sera également mise à la disposition de la communauté des développeurs sur Spectacles Lens Explorer.

Le livre cesse d’être un objet clos et devient une interface capable de faire émerger le son, l’image et le rythme. Au lieu de concurrencer la lecture, l’IA l’envahit.

 

Quand la caméra renvoie un poème

Dans Poetry Camera, fruit de la collaboration entre Kelin Carolyn Zhang et Ryan Mather, la logique est inversée de manière particulièrement fructueuse. Au lieu d’imprimer une photographie, l’appareil photo imprime un poème sur la scène capturée.

Sa première version ouverte s’appuyait sur des composants accessibles tels que le Raspberry Pi Zero 2 W, un module de caméra et une imprimante thermique. Selon Raspberry Pi, le système prend l’image, en extrait les éléments visuels, puis les transforme en un poème généré par l’IA.

Ce léger changement modifie également la nature du souvenir. Le quotidien cesse d’être archivé et commence à être lu. Dans un écosystème visuel saturé de captures d’écran, il y a quelque chose de presque rafraîchissant dans ce renoncement à la photo comme résultat final.

 

Dessiner pour écouter

Musical Canvas, par Google Arts & Culture Lab avec l’artiste en résidence Simon Doury, transpose cette même idée dans le domaine du dessin. Cet outil génère une bande son à partir d’un trait de pinceau sur une toile numérique.

Google explique que l’expérience utilise Gemini pour décrire le dessin et Lyria pour générer la musique ; lors de sa présentation initiale, l’entreprise a également indiqué que des filtres tels que Pixelate ou Old Film modifient également la réponse sonore.

Ici, le dessin cesse d’être une simple image. Cela devient le déclencheur d’une ambiance, une partition indirecte. La créativité ne se limite plus à un seul médium.

 

Considérés ensemble, ces trois projets suggèrent une idée intéressante : l’IA n’est pas conçue comme un auteur autonome, mais plutôt comme une technologie de traduction. Elle transforme le texte en atmosphère, la scène en poème et le dessin en musique. Cette condition hybride est particulièrement intéressante pour les domaines créatifs, où l’objet isolé compte de moins en moins et où l’expérience composée de plusieurs couches de perception compte davantage, instaurant de nouvelles relations entre le langage, l’image, le son et l’espace comme outil d’exploration.