Adobe MAX 2025 : quand l'IA apprend à parler le langage des créateurs
À Los Angeles, la création est à la fois industrie et mythologie. À deux pas des studios qui ont façonné l'esthétique mondiale, MAX devient le lieu où l'IA apprend à converser avec l'imaginaire collectif. Adobe publie une étude : 83 % des créateurs français utilisent déjà l'IA générative. Mais cette année, l'éditeur va plus loin. Il ne propose plus une IA qui exécute des commandes, mais une IA qui comprend des intentions. La relation entre l'artiste et sa machine vient de changer.
« Rends ça plus tropical » : quand Photoshop comprend l'abstrait
La scène paraît simple. Un graphiste ouvre Photoshop, sélectionne une image de montagne enneigée et tape : « Rends ça plus tropical ». En quelques secondes, la montagne devient jungle. La lumière se charge d'humidité, les verts se superposent. L'outil ne change pas juste une image : il traduit une sensation. Photoshop saisit désormais ce qu'un créateur veut dire quand il parle d'atmosphère. Mieux : il propose d'aller plus loin. « Souhaitez-vous modifier la police pour l'adapter à votre nouveau thème ? »
Bienvenue dans l'ère du Prompt to Edit, intégré au nouveau Firefly Image Model 5. Fini les curseurs et les menus interminables. Le créateur discute avec son outil. « Change le ciel pour un coucher de soleil », « ajoute une ambiance vintage ». Des demandes floues, subjectives, que l'IA interprète en préservant la structure des calques et la cohérence visuelle.
L'Assistant IA de Photoshop (en bêta privée) et celui d'Adobe Express (en bêta) vont encore plus loin. Générer une image, modifier un arrière-plan, remplacer un objet : tout se fait en langage naturel, comme dans une conversation.

Crédits : Adobe
Project Moonlight : l'IA qui apprend votre style
Adobe dévoile aussi Project Moonlight (en bêta privée), un agent IA qui ne se contente pas d'exécuter. Il apprend le style de chaque créateur, analyse les tendances des réseaux sociaux et propose des recommandations personnalisées. Objectif : passer du concept à la réalisation en quelques minutes.

Crédits : Adobe
Une enquête menée auprès de 16 000 créateurs le confirme : 77 % des créateurs français se tourneraient vers un outil capable d'apprendre leur style créatif.
Les modèles personnalisés Firefly répondent à cette attente. Il suffit de glisser-déposer ses propres images pour entraîner une IA à reproduire son univers visuel : codes couleurs, signature graphique, tout. Une IA sur-mesure. Pour les agences et studios, le gain est immédiat : chaque nouveau visuel garde la même patte. La cohérence devient automatique.
L'économie de la création sous pression
Ces innovations ne sortent pas de nulle part. Elles répondent à une réalité brutale : 82 % des marques renouvellent leurs contenus chaque semaine. Près d'un tiers le font chaque jour. Une cadence infernale. L'étude Adobe x Advanis le dit clairement : 99 % des professionnels de la création utilisent déjà l'IA générative. 87 % jugent leurs contenus plus qualitatifs. 88 % gagnent en vitesse.
En France, 83 % des créateurs utilisent activement l'IA générative. 70 % affirment qu'elle leur a permis de développer leur activité. L'IA n'est plus un gadget pour geeks. Elle est devenue la seule réponse possible à la surcharge créative. Firefly ne s'arrête d'ailleurs plus à l'image. L'outil couvre maintenant l'audio et la vidéo : Générer une piste audio (bandes-son sous licence), Générer la parole (voix-off avec ElevenLabs), Éditeur de vidéos. De quoi gérer l'intégralité du processus de création.
Mais tout a un prix. 66 % des créateurs craignent que leurs contenus soient utilisés sans consentement pour entraîner des modèles d'IA. Adobe répond avec son badge Content Credential, développé dans le cadre de la Content Authenticity Initiative qu'il a cofondée. Cette empreinte digitale indique l'origine des contenus générés et survit même aux captures d'écran. Une tentative de ramener de la transparence dans un écosystème encore très opaque.
L'ouverture comme stratégie : Google, OpenAI, Topaz Labs
Adobe joue la carte de l'ouverture. L'éditeur intègre des modèles partenaires : Google Gemini 2.5 Flash Image, Black Forest Labs FLUX.1 Kontext, OpenAI GPT Image, Runway, Luma AI, ElevenLabs, Topaz Labs, Ideogram 3.0. Les créateurs choisissent le modèle le plus adapté à chaque tâche. Chaque création reste étiquetée via les Content Credentials.

Crédits : Adobe
Un choix qui contraste avec celui de concurrents comme Midjourney, souvent accusés de s'entraîner sur des milliards d'images sans autorisation. Adobe martèle son approche : tous ses modèles Firefly sont entraînés uniquement sur Adobe Stock, des licences ouvertes et du domaine public. Un positionnement prudent qui rassure les entreprises. Mais qui, parfois, bride l'audace créative.
YouTube Shorts : créer partout, tout le temps
Le partenariat avec YouTube dit beaucoup sur l'ambition d'Adobe. Create for YouTube Shorts, intégré à Premiere sur mobile, permet d'éditer des vidéos avec des effets pro et de publier directement sur la plateforme. « YouTube Shorts est devenu la scène mondiale des créateurs. Notre mission, c'est de leur donner les meilleurs outils, là où ils en ont besoin », explique Ely Greenfield, CTO d'Adobe.
Adobe explore même l'intégration de ses capacités créatives dans des chatbots comme ChatGPT. L'idée : concevoir et publier du contenu directement depuis une conversation, sans quitter son espace de travail. Plus besoin d'ouvrir un logiciel dédié. La création se ferait là où les idées naissent.
Le créateur, entre gain de temps et perte de contrôle
Adobe MAX 2025 pose une question simple : l'IA conversationnelle libère-t-elle les créateurs ou crée-t-elle une nouvelle forme de dépendance ? L'automatisation des tâches répétitives (détourage, ajustements, exports) fait gagner du temps. Mais en déléguant ces micro-décisions à l'IA, ne risque-t-on pas de perdre ce qui fait la singularité d'un regard ?
Firefly Boards tente une autre approche. Cet espace d'idéation collaborative permet de générer, comparer, annoter des visuels à plusieurs. On peut même transformer du 2D en 3D avec Rotate Object. Un moodboard intelligent qui mise sur l'exploration collective plutôt que sur l'automatisation pure.

Crédits : Adobe
Cubi Nico, designer graphique spécialisé dans les identités visuelles pour événements culturels, vit cette accélération au quotidien. « Avant, je passais 10 heures sur un visuel. Maintenant, je peux en faire cinq en une demi-heure chacun », explique-t-il. Pour lui, l'IA ne remplace pas l'idée. « Les idées, on les a, c'est pas l'IA qui va te les apporter. » Elle matérialise juste plus vite ce qu'il a déjà en tête. Il apprécie aussi les petits détails : la fonctionnalité qui renomme automatiquement les calques. « Qui aime faire ça ? Personne. » Un gain de temps qui lui permet de répondre plus vite aux commandes. Mais aussi d'expérimenter davantage.

Crédits : Cubi Nico (Instagram)
L'équation posée par Adobe MAX 2025 est brutale : dans un monde où 82 % des marques renouvellent leurs contenus chaque semaine, l'IA n'est plus une option. Elle est devenue le collaborateur dont on ne peut plus se passer. À condition d'accepter qu'elle apprenne notre style, comprenne nos intentions et, parfois, nous devance.