La page d'accueil de l'outil Dall-E 2 (Capture écran).
L'Express
Merci pour votre inscription
Mardi 18 octobre, Los Angeles. La conférence d’ouverture de l’événement Adobe Max s’apprête à débuter. Plusieurs milliers de spectateurs s’amassent dans l’immense Microsoft Theater avec une question simple en tête : va-t-on parler d’intelligence artificielle (IA) générative ? Depuis quelques mois, le monde de l’art n’a d’yeux que pour cette technologie. Ses pionniers s’appellent Dall·E 2, Stable Diffusion ou encore Midjourney. Ces sites permettent de créer numériquement tout et n’importe quoi. Un peu comme Adobe, via Photoshop, l’un des logiciels les plus connus édités par la compagnie. A la différence qu’il ne leur suffit que de quelques mots de description, d’une commande (traduit en prompt en anglais) pour que des oeuvres soient générées gratuitement. Comme par magie.
Leur limite ne semble avoir que celle de notre imagination. Un renard propulsé dans un tableau de Claude Monet, des légendes comme Freddy Mercury ou un Michael Jackson vieillis comme s’ils étaient toujours vivants, ou un simple champ de coquelicots inondé de soleil… Ces visions de l’esprit apparaissent sur un écran en quelques secondes seulement, contre des heures de travail sur une table à dessin ou sur Adobe et bien d’autres logiciels.
Au mois d’août, un artiste américain a même remporté un concours d’art dans le Colorado, aux Etats-Unis, à l’aide de la plateforme Midjourney. Bien sûr, sans que le jury ne se rende compte de quoi que ce soit. L’information a fait le tour du globe car elle livrait un message simple : l’IA, déjà utilisée sporadiquement pour des améliorations techniques, n’a pas seulement trompé l’esprit humain – les deepfakes le font déjà – mais elle a aussi façonné ce qui est unanimement reconnu comme “beau”.
Dans l’immense salle de spectacle, le suspense est finalement vite levé par un responsable d’Adobe, David Wadhwani. La compagnie va également proposer des alternatives “magiques” dans ses outils de création, notamment pour concevoir de nouvelles polices d’écriture. L’annonce reçoit son lot de clameurs et soulève immédiatement de nouvelles questions. Les professionnels de l’art vont-ils être ringardisés par la technologie et par une vague de néoartistes pour qui toutes les barrières techniques sont désormais levées ? Est-ce que les outils créatifs comme ceux d’Adobe vont devenir inutiles ? “Nous voyons arriver une époque où tout le monde n’a pas le temps ou l’intention d’apprendre Photoshop”, reconnaît Maria Yap, en charge de l’IA au sein de la compagnie. Dall·E 2, un temps réservé à une poignée d’initiés, est devenu accessible à tous et attire déjà plus de 1,5 million d’utilisateurs, tout en générant 2 millions d’images par jour.
Parmi les dessinateurs, graphistes ou encore photographes croisés au salon Adobe Max, la grande majorité ont testé l’IA générative. Souvent, dans un premier temps, par amusement. “J’ai entré les mots ‘alien’ et ‘glace’ sur Dall·E 2 pour voir ce qu’il en ressortait”, sourit Estella, artiste spécialisée dans la réalité virtuelle, un casque sur la tête. Lionel Koretzky, un photographe français, a lui aussi franchi le pas pour le côté “inconnu et excitant” qui se dégage de ces plateformes. “Quand on est artiste, on est en quête perpétuelle de l’accident artistique, cette étincelle que l’on n’attendait pas, et ces outils peuvent la provoquer”, confie-t-il. Il a ensuite inséré un vrai “brief” de travail sur Midjourney, une commande d’un client, pour voir ce qu’il en sortait. Le résultat, pas inintéressant au demeurant, nécessitait néanmoins des ajustements pour être présentable.
Une tour Eiffel dans le style “studio Ghibli” réalisée sur l’outil Midjourney.
Maxime Recoquillé / L’Express
Car l’outil n’est pas si magique qu’il le prétend. Designer dans l’entreprise de création Monotype, également présente à Los Angeles, Terrance Weinzierl estime que les modèles d’IA générative créent surtout des oeuvres “vides et artificielles”. Rien de nature à concurrencer la vision et la sensibilité humaines. Ou tout bonnement le talent. Les créations réalisées à l’aide de Dall·E et de ses cousins sont loin d’être toutes couronnées de succès. Avec des commandes imprécises, de gros défauts sont facilement visibles au niveau des visages ou des textures. L’ordinateur ne comprend pas toujours ce qu’on lui dit. Et puis il y a des mauvaises idées. Un compte Twitter, Weird Dall-E Générations (oeuvres Dall·E bizarres), suivi par un million de personnes, compile ces essais totalement ratés : un chat dans une mine de charbon, l’acteur The Rock qui enlace le dictateur Kim Jong-un… Pour l’heure, bon nombre de logiciels se refusent à montrer de la nudité ou de la violence qui peuvent faire partie d’un processus créatif respectable. Internet est ce qu’il est.
Cela n’enlève rien à la révolution que représentent ces outils. Pour les artistes quels qu’ils soient. “L’IA est un amorceur comme l’étaient les épreuves photographiques pour les peintres du début du siècle dernier. Comme du crayonnage, du brouillon”, observe le chercheur en sciences de l’information et de la communication Olivier Ertzscheid. Mais aussi pour les entreprises créatives. “On va vite y valoriser ceux qui maîtrisent les prompts, car ces commandes pour créer des illustrations, si elles sont bien maîtrisées, seront un gain de temps énorme”, indique Frédéric Cavazza, consultant spécialisé dans le marketing et la publicité. Ces bouts de phrase sont déjà à la base d’un business naissant : comptez de 3 à 4 dollars pour ceux qui à coup sûr vous généreront des résultats intéressants, des personnages féminins façon heroic fantasy ou de jolis vêtements.
Une image d’un plat conçu sur Midjourney en utilisant notamment les mots “gastronomie italienne”.
Maxime Recoquillé / L’Express
“On sera bientôt capable de lui demander d’explorer 30, 130 ou 130 000 options différentes d’une même idée créative. Avant de nous laisser en choisir un petit nombre pour les travailler personnellement, les approfondir pour finalement trouver les meilleures options à présenter à ses clients. C’est un vrai superpouvoir”, s’enthousiasme Scott Belsky, chief product officer chez Adobe, qui évoque avec prudence un “copilote”. Sous-entendu : de ses propres outils. Une vision qui s’entend : Adobe est l’un des plus gros vendeurs de logiciels créatifs au monde, une entreprise valorisée près de 150 milliards de dollars qui ne souhaite pas voir son business partir en fumée. La compagnie a également des raisons d’être prudente sur le sujet. Scott Belsky compare l’essor de l’IA générative à celle de la voiture autonome. Par sécurité, “il est encore nécessaire de garder une main sur le volant”.
D’abord pour des questions éthiques. Dall·E 2 appartient à une société privée. Son outil repose sur un modèle de langage qui permet à la machine de reconnaître du texte et son sens (via le machine learning). Il utilise l’un des plus avancés au monde, le GPT-3 d’OpenAI, sortie en mai 2020. Ainsi qu’un réseau neuronal appelé Clip, toujours développé par OpenAI, qui très grossièrement opère le lien entre le texte et une image au sein d’un immense corpus. Plus ce dernier est gros, plus les résultats sont variés. Mais cette plateforme, comme beaucoup d’autres, garde aujourd’hui cette base de données jalousement gardée, ce qui soulève des questions légales. “Si on ne peut pas l’ausculter, on accepte l’idée qu’il y aura des sorties de route graves, comme des biais racistes ou sexistes”, pointe Olivier Ertzscheid. Ce qui ne serait pas une première dans l’histoire de l’IA. Construire ses propres bases artistiques pourrait constituer l’avenir de l’IA générative, mais cette formule apparaît encore lointaine. La technologie n’étant pas à la portée de tous et les coûts en matière de fonctionnement et de stockage – la machine nécessite une grande quantité d’information pour apprendre – peuvent vite devenir importants.
Les questions légales, notamment liées au droit d’auteur, sont l’autre gros point d’interrogation pour cette technologie dont les progrès permettent de s’attaquer non seulement à de l’image, mais aussi à du code, du son, de la vidéo et même de la 3D. Les artistes doivent-ils être rémunérés si leurs oeuvres servent à en inspirer d’autres ? Et comment le savoir ? Lionel Koretzky confie avoir testé une commande en apposant le nom de l’artiste japonaise Yayoi Kusama, devenue célèbre pour ses oeuvres à pois. Une image fidèle au style de l’artiste en est sortie. L’Express a aussi testé des styles, comme celui des célèbres studios Ghibli, que la machine a imité sans le moindre problème. Dall·E 2 a pris quelques précautions à ce sujet, refusant par exemple de prendre en compte “Philippe Starck” du nom du créateur français, afin de protéger ses oeuvres. Une décision restrictive pour s’éviter tout ennui judiciaire. Alors qu’après tout, le pastiche, grâce à l’IA, semble avoir de belles heures devant lui.
Les services de L’Express
Nos partenaires
© L’Express