Trois ans d’IA générative : ce qui a vraiment changé

Avatar photo Julien 19 avril 2026

En juillet 2022, DALL-E 2 sortait de sa phase d’invitation pour devenir accessible au public. Quelques semaines plus tard, Stability AI publiait le code source de Stable Diffusion, et n’importe qui pouvait faire tourner un générateur d’images sur son propre ordinateur. En novembre de la même année, ChatGPT atteignait 100 millions d’utilisateurs en deux mois, un record absolu pour une application grand public. En moins d’un trimestre, l’IA générative est passée d’un sujet de recherche à un phénomène mondial. Trois ans et demi plus tard, le paysage a radicalement changé. Des entreprises ont été créées, d’autres ont pivoté, certaines ferment déjà. Et les usages ont évolué bien au-delà de ce que les premiers utilisateurs imaginaient.

2022-2023 : l’explosion de l’image

Tout a commencé par l’image fixe. DALL-E 2, Midjourney et Stable Diffusion se sont partagé le marché naissant avec des approches très différentes. OpenAI a choisi un accès contrôlé et des filtres stricts. Midjourney a misé sur une communauté Discord et une esthétique reconnaissable, presque picturale. Stability AI a joué la carte de l’open source, en publiant les poids de ses modèles pour que la communauté puisse les adapter, les modifier et les redistribuer librement. En quelques mois, des milliers de variantes de Stable Diffusion ont vu le jour, chacune spécialisée dans un type de contenu ou un style graphique particulier.

En mars 2023, GPT-4 a élargi le champ en montrant qu’un modèle de langage pouvait aussi raisonner sur des images. Midjourney a sorti sa version 5, puis sa version 6, chacune apportant un bond visible en matière de réalisme et de cohérence. La version 7, sortie en avril 2025, a encore repoussé les limites de ce qu’un simple prompt textuel peut produire. Mais c’est surtout la vitesse d’adoption qui a surpris les observateurs. En un an, l’IA générative est passée des cercles techniques aux usages quotidiens. Des indépendants l’utilisaient pour leurs visuels marketing. Des enseignants l’intégraient dans leurs supports de cours. Des agences immobilières s’en servaient pour mettre en scène des intérieurs vides. Le marché mondial de l’IA appliquée aux logiciels a atteint 118 milliards de dollars de revenus en 2025, porté en grande partie par ces usages visuels.

2024 : la vidéo entre en jeu

Février 2024 marque un tournant. OpenAI dévoile Sora, un modèle capable de générer jusqu’à une minute de vidéo réaliste à partir d’un simple prompt texte. Les exemples publiés montrent des séquences avec des mouvements de caméra cohérents, des reflets dans l’eau, des expressions faciales naturelles. Le niveau de réalisme dépasse tout ce qui avait été montré publiquement. Google répond avec Veo, puis Veo 2 en décembre. Runway sort Gen-3, puis Gen-4 en mars 2025. ByteDance lance Kling. Alibaba publie Wan 2.1 en open source.

La course est lancée, et elle avance à un rythme que même les acteurs du secteur n’avaient pas anticipé. Chaque trimestre apporte un nouveau modèle qui rend le précédent obsolète. Les clips passent de 4 secondes à 10, puis à 30, puis à une minute. La résolution monte. La cohérence temporelle s’améliore. Les artefacts visuels qui trahissaient les premières générations (doigts surnuméraires, mouvements de lèvres décalés, textures qui fondent) deviennent de plus en plus rares. En l’espace de 18 mois, la génération vidéo par IA est passée du stade de curiosité technique à celui d’outil utilisable en production.

L’impact sur les industries créatives est concret et mesurable. Une étude citée par la Brookings Institution estime que plus de 100 000 emplois dans le secteur du divertissement aux États-Unis pourraient être menacés d’ici la fin de l’année, en grande partie à cause de l’automatisation rendue possible par les générateurs vidéo. 75 % des entreprises du cinéma et de la publicité qui ont adopté l’IA ont réduit leur effectif sur les postes de montage, de retouche et de storyboarding. Le gain de productivité est réel, mais il se fait au détriment des postes intermédiaires les plus exposés à l’automatisation.
Utilisateur testant un générateur vidéo par IA non censurée depuis son navigateur web

2025-2026 : consolidation et premières fermetures

Le marché se structure. Sora 2 sort en septembre 2025 avec une avancée majeure : la génération simultanée de vidéo et d’audio synchronisé. Dialogues, bruitages, musique d’ambiance, tout est produit en un seul passage. Les comparaisons avec TikTok se multiplient, car l’application Sora ressemble de plus en plus à un réseau social centré sur le contenu généré par IA. Google répond avec Veo 3 en mai 2025, capable lui aussi de produire vidéo et son dans un seul pipeline. La barre technique monte chaque mois, et les utilisateurs s’y habituent aussi vite qu’ils s’étaient habitués aux filtres Instagram quelques années plus tôt.

Mais la consolidation apporte aussi ses premières victimes. En mars 2026, OpenAI annonce la fermeture de Sora, application et API comprises, prévue pour le printemps. Les raisons invoquées ne sont pas techniques mais stratégiques : le produit ne s’intègre pas dans la direction prise par l’entreprise. Les accords de licence avec les studios de cinéma arrivent à leur terme. Pour les utilisateurs qui avaient construit des workflows autour de Sora, le rappel est brutal : dépendre d’un service unique est un risque, surtout dans un marché aussi jeune et instable.

Côté open source, la tendance inverse se confirme. Les modèles ouverts rattrapent les modèles propriétaires en qualité, avec un décalage de quelques mois seulement. Wan 2.1 d’Alibaba, publié sous licence libre, permet à des développeurs indépendants de construire des services complets de création vidéo sans dépendre d’une API tierce. Cette dynamique alimente un écosystème de générateurs vidéo par IA accessibles dans le navigateur, qui offrent la puissance des modèles open source avec la simplicité d’une interface grand public. Des services comme bodyswap ai illustrent cette tendance : un générateur d’image et de vidéo par IA accessible sans installation, qui propose des transformations visuelles spécialisées par catégorie, sans les filtres restrictifs qui limitent les grands acteurs du marché. Ce type de service attire les utilisateurs qui cherchent une IA non censurée, capable de produire du contenu sans restriction sur le type de résultat, là où Midjourney ou DALL-E imposent des limites strictes sur ce qu’il est possible de générer.
Comparaison entre un clip généré par un modèle IA de 2023 et un résultat produit en 2026

Ce qui a changé pour les utilisateurs ordinaires

Le changement le plus profond ne se mesure pas en paramètres de modèles ou en résolution de pixels. Il se mesure dans les habitudes de millions de personnes qui n’ont aucune compétence technique et qui utilisent pourtant l’IA générative au quotidien. Un community manager qui génère ses visuels de la semaine en 20 minutes au lieu d’attendre 5 jours de livraison par un graphiste. Un prof de collège qui transforme ses diapositives en capsules animées pour ses élèves. Un artisan qui photographie ses créations et obtient des mises en scène professionnelles en un clic. Un freelance qui produit des variantes de son logo pour tester différentes directions créatives sans passer par une agence.

Ces usages étaient impensables il y a quatre ans. Pas parce que la technologie n’existait pas dans les labos de recherche, mais parce qu’elle n’était pas accessible. Ce qui a changé entre 2022 et aujourd’hui, ce n’est pas seulement la qualité des modèles. La barrière d’entrée a disparu. Plus besoin de coder, plus besoin de posséder du matériel spécialisé, plus besoin de comprendre ce qu’est un tenseur ou un scheduler de bruit. L’utilisateur envoie une image, choisit un style, et récupère un résultat. La complexité est absorbée côté serveur. Et le coût par création est passé de plusieurs dizaines d’euros (tarif d’un graphiste freelance) à quelques centimes (coût d’un crédit sur un service en ligne). Cette compression du prix est ce qui rend la création visuelle par IA viable pour des indépendants et des petites structures qui n’avaient jamais eu accès à la production professionnelle auparavant.
Indépendant produisant des visuels marketing grâce à un service de transformation visuelle par IA

Les questions qui restent ouvertes

Malgré la rapidité des avancées, plusieurs sujets restent en suspens. La propriété intellectuelle des contenus générés n’est toujours pas tranchée juridiquement. Les procès intentés par des artistes et des ayants droit contre les entreprises qui ont entraîné leurs modèles sur des œuvres protégées sont en cours, mais aucune décision de référence n’a encore été rendue en Europe. L’EU AI Act impose des obligations de transparence et de documentation, mais il ne répond pas à la question fondamentale : à qui appartient une image générée par une machine entraînée sur des millions d’images créées par des humains ?

La modération des contenus reste un champ de bataille. Les grands éditeurs sur-filtrent pour se protéger juridiquement, bloquant au passage des usages légitimes. Les services indépendants adoptent des politiques plus ouvertes, en laissant la responsabilité aux utilisateurs. Aucun consensus n’existe sur le bon équilibre entre protection et liberté de création, et il est probable qu’aucun n’émergera avant plusieurs années. En attendant, les utilisateurs votent avec leurs pieds : les requêtes de recherche autour de « IA non censurée » et « IA sans filtre » progressent régulièrement, signe que le marché des services alternatifs ne fait que commencer. Ce clivage entre services restrictifs et services ouverts est probablement la fracture la plus durable que l’IA générative ait créée dans le paysage des outils numériques.

Et puis il y a la question de la dépendance. La fermeture de Sora l’a montré : un service peut disparaître du jour au lendemain, emportant avec lui les workflows, les résultats stockés et les habitudes de travail de ses utilisateurs. Les professionnels qui intègrent l’IA générative dans leur chaîne de production doivent prévoir une portabilité de leurs contenus et ne jamais s’appuyer sur un fournisseur unique. Les modèles open source offrent une forme de garantie contre ce risque, à condition d’avoir les compétences pour les exploiter. Pour les autres, la diversification des services reste la meilleure protection.

Trois ans après l’explosion initiale, l’IA générative n’est plus une promesse. Elle est un outil de travail pour des millions de personnes, un marché de plusieurs centaines de milliards de dollars, et un terrain d’affrontement juridique, éthique et commercial qui ne fait que commencer. Les modèles sont meilleurs, les interfaces sont plus simples, les coûts sont plus bas. Ce qui manque encore : un cadre stable, juridique, éthique et commercial. La seule certitude, c’est que le paysage dans trois ans sera aussi différent de celui d’aujourd’hui que celui d’aujourd’hui l’est de celui de 2022.

Avatar photo

Julien

Julien est un rédacteur passionné spécialisé dans le marketing et la publicité, qui partage sur digital-publicite.fr des méthodes, stratégies et outils pour accompagner les professionnels dans leurs projets. Il propose des contenus clairs et pratiques pour optimiser les campagnes et améliorer la visibilité en ligne.

DIGITAL PUBLICITE
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.