Journal de l’IA créative (5 février 2026)
L’écosystème des outils IA pour l’image, la vidéo, le son et la musique continue de muter à une vitesse folle, avec de nouvelles fonctions orientées créateurs qui arrivent chaque semaine.
1. Musique générative : Suno muscle son modèle et les workflows ComfyUI audio décollent
Les plateformes de musique générative se positionnent clairement comme des stations de travail à part entière, et non plus comme des gadgets.
- Suno + Warner Music Group : vers une nouvelle génération de modèles
Suno annonce un partenariat majeur avec Warner Music Group pour entraîner une nouvelle génération de modèles sur de la musique licenciée de haute qualité, annoncée comme surpassant leur modèle v5 en termes de réalisme et de puissance.
L’objectif affiché : créer un écosystème où créateurs, labels et fans cohabitent, avec de nouveaux modes de monétisation et d’interaction autour des morceaux générés. - Suno, un outil toujours plus créateur-friendly
La plateforme insiste sur la continuité : les utilisateurs peuvent toujours créer des morceaux originaux “comme aujourd’hui”, mais avec des modèles plus sophistiqués et meilleurs en cohérence, expressivité et mixage.
Le discours officiel met en avant la volonté de préserver la “magie” de l’outil, tout en ouvrant la porte à un futur où la musique interactive devient un standard. - ComfyUI + Ace Step v1.5 : la musique IA en local
Côté créateurs avancés, un tutoriel récent montre comment utiliser le modèle Ace Step v1.5 dans ComfyUI pour générer de la musique de manière locale, en gardant un contrôle total sur les données et la confidentialité.
Le workflow met en avant des générations rapides (grâce à des optimisations “turbo”), une grande flexibilité de routing audio et la possibilité d’ajuster le rendu à la manière d’un DAW modulaire basé sur des nœuds. - Tendance : l’IA comme “studio modulaire”
Entre Suno (cloud, grand public) et ComfyUI + modèles audio (local, power users), on voit se dessiner un double mouvement : d’un côté, des plateformes clés en main, de l’autre des pipelines IA modulaires intégrables au setup existant (synthés, DAW, hardware).
2. Image : Midjourney V8, caricatures virales et culture #AIart en continu
L’IA image reste un terrain de jeu hyper actif, avec Midjourney au centre de nombreux échanges, tant côté tech que côté tendances visuelles.
- Midjourney V8 annoncé pour février
Un billet de veille souligne que les dernières “Office Hours” de Midjourney confirment l’arrivée de V8 courant février, avec un focus global sur la qualité, la flexibilité de style et la cohérence des scènes.
Même si tous les détails techniques ne sont pas publics, la communauté s’attend à des améliorations notables sur la finesse des détails, la gestion de la lumière et la stabilité de compositions complexes. - World sketching / exploration : la logique “monde vivant”
Une des grandes idées discutées par les observateurs est la génération de mondes explorables :- “World sketching” : esquisser des environnements via texte + images de départ.
- “World exploration” : se déplacer dans le monde en vue première ou troisième personne, avec une scène qui se génère dynamiquement à mesure qu’on avance.
- “World remixing” : modifier et ré-explorer des mondes existants via de simples changements de prompt.
Cette approche rapproche les outils d’image d’un moteur temps réel/jeu vidéo, avec export possible en vidéo.
- Caricatures IA virales sur les réseaux
Un article met en avant la mode actuelle des caricatures AI façon Midjourney, qui transforment des selfies en portraits cartoon exagérés et très partageables.
Des prompts circulent pour des profils “musicien”, “prof”, etc., avec insistance sur les visages surdimensionnés, les chromatismes agressifs et les mises en scène mémétiques parfaites pour TikTok, Instagram Reels et X. - Écosystème outils : DALL·E 2, Midjourney, Nightcafe & co.
Un guide de carrière rappelle que les générateurs comme DALL·E 2, Midjourney, OpenArt, Nightcafe ou JasperArt restent les principaux points d’entrée pour les artistes qui veulent professionnaliser leur pratique IA.
L’article souligne aussi l’importance d’une culture visuelle solide (photo, peinture, design) pour sortir de la “slop” générique que l’on voit proliférer sur les réseaux.
3. Vidéo : Sora, Runway Gen‑3, Veo 2… la bataille des générateurs filmique
Sur le terrain vidéo, la compétition se joue maintenant entre quelques grands noms : Sora, Runway Gen‑3, Veo 2, plus les déclinaisons pédagogiques et professionnelles autour de ces outils.
- Runway Gen‑3 Alpha comme nouveau standard
La Flanders AI Academy présente Runway Gen‑3 Alpha comme un modèle texte‑vers‑vidéo de nouvelle génération, capable de générer des séquences haute résolution, détaillées, avec une bonne cohérence temporelle.
L’accent est mis sur la souplesse créative : capacité à suivre des prompts complexes, à gérer des styles variés et à produire des vidéos utilisables directement dans des workflows de contenus. - Veo 2 de Google en challenger sérieux
Un article de synthèse pose la question : “Veo 2 change‑t‑il vraiment la donne en vidéo IA ?”, en comparant ses capacités à celles de Runway Gen‑3 (cohérence, contrôle, qualité cinématique).
La conclusion est que Veo 2 se positionne comme une alternative robuste pour des usages pro et marketing, notamment lorsque l’écosystème Google (Gemini, nano banana pour les références visuelles) est déjà en place. - Sora 2 et l’app mobile : social + IA vidéo
Plusieurs sources décrivent l’application iOS Sora comme un TikTok boosté à l’IA, où les utilisateurs génèrent des vidéos à partir de prompts, se mettent en scène eux‑mêmes, et remixent les créations des autres.
L’app a connu un lancement explosif (plus d’un million de téléchargements rapidement), mais fait face à un ralentissement et à une vague d’apps frauduleuses sur les stores qui prétendent donner accès à “Sora 2 Video Maker”. - Deepfakes et traçabilité : les enjeux pour les créateurs
Un article pédagogique sur la détection des vidéos IA rappelle que les contenus Sora sont marqués par un watermark mobile en forme de nuage, et qu’ils peuvent être identifiés via les métadonnées à l’aide d’outils comme le Content Authenticity Initiative Verify.
Pour les créateurs, cela signifie que les pipelines pro devront intégrer à la fois la génération, la traçabilité et la preuve d’authenticité dans un même flux de production. - Formation pro autour de Runway et Sora
Un programme de formation en Allemagne liste Runway Gen‑3 et Sora comme “outils phares” pour la création de contenus vidéo cinématographiques à partir de texte ou d’images, destinés aux réseaux sociaux.
Il insiste sur la prise en main créative (écriture de prompts, montage, intégration dans des stratégies de communication), preuve que ces outils sont désormais intégrés aux cursus professionnels.
4. ComfyUI : vers des pipelines IA distribués et multimodaux
Pour les créateurs techniques, ComfyUI devient de plus en plus un OS visuel pour l’IA, capable de gérer image, audio, voire 3D, avec des extensions orientées performance et production.
- ComfyUI‑Distributed : multi‑GPU et multi‑machines
Un module “ComfyUI‑Distributed” propose maintenant une exécution parallèle de workflows sur plusieurs GPU, avec équilibrage de charge automatique et accélération des batchs.
Les tâches lourdes comme l’Ultimate SD Upscale sont découpées en tuiles réparties sur plusieurs machines, avec monitoring en temps réel et gestion automatisée des workers. - Workflows audio, 3D, multi‑modèles
La documentation ComfyUI met en avant la prise en charge de modèles audio (Stable Audio, Ace Step) et de modèles 3D (Hunyuan3D 2.0), en plus des classiques Stable Diffusion-like.
L’ensemble se pilote via une interface nodale, avec sauvegarde/chargement de workflows, embeddings, LoRAs, hypernetworks, etc., ce qui en fait un terrain idéal pour des pipelines créatifs sur mesure. - Tendance : pipeline unifié image/son/3D
Associé aux modèles audio récents et aux possibilités de scaling distribué, ComfyUI se positionne comme un hub pour l’IA créative, où l’on peut imaginer des workflows qui prennent un texte, génèrent une scène, un son design et une musique, puis upscalent et exportent le tout.
5. Culture, débats et marché du travail créatif
Au‑delà des nouveautés produit, les discussions sur l’impact de l’IA dans les métiers créatifs restent très vives, en particulier dans les communautés d’artistes.
- AI art, “nouvelle profession” et prompt engineers
Un long post de réflexion anticipe l’émergence d’une nouvelle profession de “prompt engineers” en art génératif, dotés d’une solide culture en beaux‑arts, photo et histoire de l’art, capables de créer de vraies œuvres originales avec l’IA.
L’auteur imagine ces prompt engineers exposant en galerie et répondant à des commandes personnalisées, avec une reconnaissance croissante de leur statut d’“artistes IA”. - Sentiment des artistes sur l’IA
Plusieurs discussions montrent un paysage nuancé : certains artistes se sentent menacés ou démotivés en voyant des images IA supplanter des années de pratique, d’autres y voient un outil parmi d’autres pour enrichir leur processus.
Un fil souligne que, malgré tout, le marché continue d’accorder une valeur particulière aux pièces physiques et aux pratiques traditionnelles, surtout dans les galeries et expositions. - Effet “AI slop” et saturation visuelle
La notion d’“AI slop” – contenus génératifs standardisés, produits en masse pour capter le flux d’attention – est désormais entrée dans le vocabulaire courant, notamment dans les critiques des timelines saturées de contenus IA peu inspirés.
Cette critique cohabite avec une demande croissante pour des créateurs capables de tirer des images réellement singulières, travaillées sur le long terme, ce qui va dans le sens d’un travail d’auteur au-dessus de la simple génération brute.
A la recherche de créateurs d’images!
Envoyez-moi vos créations sur X, j’en ferai figurer quelques-unes en bas de mon journal de l’IA créative!
https://x.com/AnomalyArtwork