
Auteur : Boxu Li
Les modèles de diffusion texte-image peuvent générer des visuels époustouflants, mais ils ont un point faible notoire : le raisonnement spatial. Les meilleurs modèles actuels placent souvent mal les objets dans une scène ou les fusionnent de manière étrange lorsqu'on leur demande des dispositions spécifiques. Par exemple, une requête comme « un chien à droite d'un ours en peluche » peut dérouter un modèle – il peut placer le chien à gauche ou même fusionner le chien et l'ours ensemble. Ce sont des tâches qu'un jeune enfant trouve triviales, pourtant les modèles de diffusion échouent souvent à les réaliser[1]. Le problème devient encore plus prononcé avec des combinaisons inhabituelles (imaginez une girafe se tenant au-dessus d'un avion)[1]. Les solutions traditionnelles consistent à ajuster finement les modèles sur des données spéciales ou à ajouter des pertes spatiales conçues à la main lors de la génération, mais les deux approches ont des inconvénients[1]. L'ajustement fin nécessite un réentraînement coûteux et risque de modifier la créativité ou le style du modèle. Les pertes conçues à la main, quant à elles, encodent nos propres hypothèses imparfaites sur les relations spatiales, produisant souvent des résultats sous-optimaux.
Découvrez Learn-to-Steer, la nouvelle approche d'NVIDIA (à paraître au WACV 2026) qui aborde le raisonnement spatial en apprenant directement du modèle lui-même. Au lieu de coder en dur où les objets doivent aller, l'idée est d'apprendre au modèle à se guider lui-même lors de la génération d'images en utilisant des fonctions de perte basées sur les données. Dans cet article de blog, nous explorerons les défis du raisonnement spatial dans les modèles de diffusion et comment la méthode Learn-to-Steer d'NVIDIA fonctionne en coulisses. Nous nous pencherons sur son architecture – y compris comment elle exploite les cartes d'attention croisée et un classificateur appris lors de l'inférence – et examinerons les gains quantitatifs sur les benchmarks. Nous analyserons également de manière critique les compromis de l'optimisation au moment de l'inférence (comme le coût en calcul et la généralisabilité) et envisagerons les implications plus larges pour la fidélité des invites, l'alignement multimodal et l'avenir de la conception de modèles génératifs.
Les modèles de diffusion modernes comme Stable Diffusion peuvent peindre des scènes photoréalistes ou fantastiques avec un niveau de détail impressionnant. Cependant, demandez une disposition spatiale simple et vous pourriez être déçu. Le raisonnement spatial – comprendre et générer les positions relatives correctes (gauche/droite, au-dessus/en dessous, à l'intérieur/à l'extérieur) – reste un obstacle. Les invites spécifiant les relations entre objets produisent souvent des images qui ne correspondent pas à la demande. Par exemple, une invite « un chat sur une étagère » pourrait produire un chat à côté de l'étagère ou un hybride surréaliste chat-étagère. Pourquoi cela se produit-il ?
Une raison est que les modèles de diffusion apprennent à partir de vastes ensembles de données image-texte où les relations spatiales explicites sont rares ou ambiguës. Ils excellent en style et fidélité des objets, mais les données d'entraînement peuvent ne pas fortement imposer où chaque objet doit apparaître par rapport aux autres. En conséquence, la représentation interne du modèle des termes spatiaux (« au-dessus de », « à droite de ») est faible. Des évaluations récentes confirment que même les modèles de pointe de texte à image ont du mal avec les tâches spatiales impliquant des relations géométriques simples. Ces échecs se manifestent sous trois problèmes principaux : placement incorrect des objets, objets manquants qui étaient dans l'invite, ou objets fusionnés et chimériques lorsque le modèle essaie de combiner deux choses ensemble. En bref, le modèle sait souvent ce que vous avez demandé, mais pas où le placer.
Les méthodes existantes ont tenté de combler cette lacune. Certains chercheurs ajustent les modèles de diffusion sur des images avec des agencements ou des relations connus, réentraînant ainsi efficacement le modèle pour qu'il soit conscient de l'espace. D'autres utilisent des interventions au moment du test : par exemple, en guidant la génération avec des termes de perte supplémentaires qui pénalisent le chevauchement ou récompensent le bon ordre des objets. Cependant, concevoir manuellement de telles fonctions de perte est délicat – cela nécessite de deviner comment mesurer « à gauche de » ou « au-dessus de » en utilisant les données internes du modèle. Ces pertes faites à la main peuvent fonctionner pour des cas simples mais peuvent encoder des heuristiques sous-optimales, échouant sur des scènes plus complexes[4]. Le réajustement, quant à lui, peut atteindre une bonne précision spatiale (par exemple, la méthode COMPASS réentraîne un modèle avec des données spatialement alignées[5]) mais c'est gourmand en ressources et peut involontairement dégrader d'autres qualités d'image (dans un cas, la précision des couleurs et le comptage des objets se sont détériorés après le réajustement pour les relations spatiales[6]). Il y a un besoin d'une solution qui améliore la fidélité spatiale sans réentraîner l'ensemble du modèle ou se fier à des heuristiques fragiles.

Le cadre Learn-to-Steer de NVIDIA propose une nouvelle approche : plutôt que d'imposer des règles, les apprendre à partir des signaux du modèle[7]. L'idée clé est que les modèles de diffusion produisent déjà des données internes riches lors de la génération – notamment sous la forme de cartes d'attention croisée – qui peuvent être exploitées pour comprendre les relations spatiales. Les cartes d'attention croisée sont générées à chaque étape du processus de débruitage par diffusion et nous indiquent essentiellement quelles régions de l'image sont attentives à un mot donné dans l'invite[8]. En d'autres termes, elles forment un pont entre les tokens textuels (comme « chien », « ours en peluche », « à droite de ») et les emplacements des images[8]. Des travaux antérieurs ont remarqué que ces cartes d'attention peuvent être interprétées pour localiser des objets, il est donc naturel de les utiliser comme guide. Les méthodes d'optimisation au moment de l'exécution choisissent souvent les cartes d'attention croisée comme cible pour leurs pertes spatiales en raison de cette interprétabilité et de cet alignement direct texte-image[9].
Learn-to-Steer (L2S) repose sur cette idée en apprenant une fonction objective à partir de données au lieu d'en créer une manuellement. Il introduit un classificateur de relations léger qui est formé hors ligne pour reconnaître les relations spatiales à partir des motifs de cross-attention du modèle de diffusion[7]. Lors de l'inférence, ce classificateur agit comme une fonction de perte apprise : il évalue si l'image générée (jusqu'à présent) reflète correctement la relation du prompt, et si ce n'est pas le cas, il oriente la génération dans la bonne direction[7]. Essentiellement, l'équipe de NVIDIA a appris au modèle de diffusion à critiquer ses propres cartes d'attention et à s'ajuster en conséquence, le tout à la volée sans modifier les poids du modèle.
Former ce classificateur de relations s'est avéré plus subtil qu'il n'y paraît. Une approche simple pourrait être : prendre un ensemble d'images avec des relations connues (par exemple, des images annotées indiquant que « le chien est à gauche du chat »), exécuter le processus d'inversion du modèle de diffusion pour obtenir des cartes d'attention pour « chien » et « chat », puis entraîner le classificateur à produire « à gauche de » pour ces cartes. Cela fournit effectivement une supervision. Cependant, un problème inattendu est apparu – quelque chose que les auteurs appellent le problème de la « fuite de relation »[10][11]. Le classificateur a commencé à tricher en se basant sur des traces linguistiques de la relation dans les cartes d'attention, plutôt que de comprendre réellement la disposition spatiale. Comment est-ce possible ? Il s'avère que lorsque vous inversez une image en utilisant le bon prompt descriptif (disons « un chien à gauche d'un chat »), des indices subtils sur le mot « gauche » peuvent être encodés dans les activations internes du modèle. Le classificateur s'accroche alors à ces indices (lisant effectivement le prompt à partir de la carte d'attention) au lieu d'apprendre le concept visuel de « à gauche de »[10][12]. Résultat : il fonctionne bien sur les données d'entraînement mais échoue lors de la génération, car dans la génération le mot de relation du prompt correspond toujours à l'image (il n'y a rien pour distinguer si l'agencement spatial est correct ou non si le classificateur se contente de répéter le prompt).
Pour résoudre ce problème, Learn-to-Steer utilise une astucieuse stratégie d'entraînement à double inversion[13][14]. Pour chaque image d'entraînement, ils génèrent deux versions des cartes d'attention : une à partir d'une invitation positive qui décrit correctement la relation spatiale (par exemple, « Un chien à gauche d'un chat ») et une à partir d'une invitation négative qui utilise délibérément la mauvaise relation (par exemple, « Un chien au-dessus d'un chat »)[15][16]. Les deux ensembles de cartes d'attention sont étiquetés avec la véritable relation (« à gauche de » dans cet exemple), basée sur la disposition réelle de l'image. En voyant la même relation d'image avec des descriptions textuelles contradictoires, le classificateur est forcé d'ignorer l'indice linguistique peu fiable et de se concentrer sur le motif géométrique authentique dans les cartes d'attention[14]. Cela garantit qu'il apprend l'invariance : que l'invitation dise « à gauche » ou « au-dessus », le classificateur doit encore détecter que le chien est réellement à gauche du chat à partir de l'évidence spatiale seule. Cette approche à double inversion neutralise le problème de fuite, produisant un classificateur qui comprend véritablement les relations spatiales en termes de vision du modèle, et pas seulement des invitations textuelles[17].
Un autre aspect important est les données d'entraînement pour ce classificateur. L'équipe a puisé à la fois dans des images réelles et des images synthétiques pour couvrir un large éventail de scénarios[18]. Les images réelles (d'un ensemble de données appelé GQA) offrent une complexité naturelle et des arrangements d'objets variés, bien que leurs cartes d'attention puissent être bruyantes lorsque les scènes sont encombrées[18]. Les images synthétiques, générées de manière contrôlée (en utilisant une méthode Image-Generation-CoT), présentent des scènes plus simples avec des motifs d'attention plus clairs, semblables à ceux rencontrés lors de la génération par diffusion[18]. En mélangeant des données réelles et synthétiques, le classificateur bénéficie à la fois du réalisme et de la clarté. Une étude d'ablation a confirmé que l'utilisation des deux sources de données conduisait à une meilleure précision que l'une ou l'autre seule[19].
Une fois que le classificateur de relations est formé, Learn-to-Steer l'intègre dans le processus de diffusion pour orienter les images au fur et à mesure de leur génération. Cela se passe lors de l'inférence (temps de génération) et ne nécessite aucune modification des poids du modèle de diffusion. Voici comment cela fonctionne :
Lorsqu'un texte contient une relation spatiale (par exemple, « un chien à droite d'un ours en peluche »), le système commence par analyser le texte pour identifier le sujet, l'objet et la relation (dans ce cas, sujet : chien, relation : à droite de, objet : ours en peluche)[20]. Au fur et à mesure que le modèle de diffusion commence à réduire le bruit latent aléatoire en une image, Learn-to-Steer intervient à certains intervalles de temps. À une fréquence choisie (par exemple à chaque étape ou toutes les quelques étapes dans la première moitié du processus de diffusion), il extrait les cartes d'attention croisée correspondant aux deux objets en question[20]. Celles-ci représentent essentiellement la « croyance » actuelle du modèle sur l'emplacement de chaque objet dans l'image en cours de formation. Les cartes d'attention extraites sont introduites dans le classificateur de relations entraîné, qui produit une distribution de probabilité sur les relations possibles (à gauche de, à droite de, au-dessus, en dessous, etc.)[20][21]. Comme nous connaissons la relation désirée du texte, le système peut calculer une perte – par exemple, une perte d'entropie croisée qui pénalise le classificateur s'il n'est pas confiant dans la relation correcte[20][22].
Vient maintenant la partie direction : le gradient de cette perte est rétropropagé dans la représentation latente du modèle de diffusion (l'image bruitée en cours) à ce moment [23]. En pratique, cela signifie pousser les variables latentes dans une direction qui devrait augmenter la probabilité de la relation correcte selon le classificateur. Intuitivement, si le classificateur pense que le chien n'est pas suffisamment à droite de l'ours en peluche dans l'image partielle actuelle, le gradient déplacera le latent de manière à déplacer les caractéristiques du chien vers la droite (ou celles de l'ours vers la gauche). Le processus de diffusion se poursuit ensuite avec ce latent et ce bruit légèrement ajustés. En appliquant ces mises à jour guidées de manière itérative, la génération est « dirigée » vers une image qui respecte l'instruction spatiale sans jamais indiquer explicitement au modèle où dessiner chaque objet. C'est comme si le modèle avait un coach chuchotant pendant la peinture : « déplace le chien un peu plus à droite. »

Un aspect passionnant de Learn-to-Steer est qu'il fonctionne sur différentes architectures de diffusion. Les auteurs l'ont démontré à la fois sur Stable Diffusion (un modèle populaire basé sur UNet) et Flux (un modèle de diffusion basé sur MMDiT), avec des modifications minimes[24]. L'approche est indépendante de l'architecture car elle repose sur des signaux génériques (cartes d'attention) et un classificateur séparé. Cela signifie que les modèles texte-image futurs ou alternatifs pourraient potentiellement être « intégrés » dans le même mécanisme de guidage en entraînant un nouveau classificateur sur les sorties d'attention de ce modèle. De plus, bien que le système ait été entraîné sur des relations de paires d'objets uniques, il peut gérer des invites qui enchaînent plusieurs relations. Par exemple, considérez une invite : « une grenouille au-dessus d'une basket en dessous d'une théière. » Cela comprend deux relations (« grenouille au-dessus de la basket » et « basket en dessous de la théière ») impliquant trois objets. Learn-to-Steer aborde ces cas en alternant le focus d'optimisation entre les relations à différents pas de temps[25][26]. Il optimisera le latent pour la relation grenouille-basket à une étape, puis la relation basket-théière à la suivante, et ainsi de suite de manière cyclique. En utilisant cette stratégie, la méthode a pu imposer plusieurs contraintes spatiales dans une seule image, ce que les fonctions de perte statiques ou les invites naïves échouent souvent à réaliser. (En pratique, les auteurs ont constaté que formuler une invite multi-relation de manière simple et enchaînée – par exemple « Une grenouille au-dessus d'une basket en dessous d'une théière » – donnait de meilleurs résultats qu'une phrase plus verbeuse avec des conjonctions[27].)
Dans quelle mesure Learn-to-Steer améliore-t-il la compréhension spatiale dans les images générées ? L'article rapporte des sauts significatifs en précision sur les benchmarks d'évaluation standard texte-image pour les relations spatiales. Deux benchmarks sont utilisés : GenEval (qui vérifie si les images générées satisfont à une invite de relation donnée) et T2I-CompBench (Text-to-Image Composition Benchmark, un autre test pour les arrangements spatiaux). L'équipe a évalué quatre modèles de diffusion différents – deux variantes de Flux et Stable Diffusion 2.1 et 1.4 – en comparant la génération standard à diverses méthodes. Les résultats racontent une histoire claire : les objectifs de pilotage appris surpassent largement les modèles non guidés et les méthodes antérieures[28]. Quelques points forts :
Les résultats qualitatifs sont tout aussi révélateurs. Les exemples du document montrent qu'avec Learn-to-Steer, les images générées reflètent fidèlement les instructions spatiales du prompt tout en maintenant une haute qualité d'image[40]. Dans des scénarios où la diffusion standard ou d'autres méthodes placeraient incorrectement les objets ou omettraient certaines entités, L2S produit des images où les objets sont correctement agencés et tous présents. Il gère également les demandes inhabituelles avec élégance – par exemple, il peut rendre "un bus sous une brosse à dents" ou "un éléphant sous une planche de surf" avec le bon ordre spatial et sans les fusions bizarres que d'autres méthodes produisent[41]. L'équipe NVIDIA souligne que leur méthode surmonte les trois modes d'échec courants : elle corrige le mauvais placement des objets, empêche l'oubli d'entités (chaque objet du prompt apparaît dans l'image), et évite la fusion d'objets (plus d'hybrides surréalistes causés par le modèle qui confond deux éléments)[3]. Dans des comparaisons côte à côte, d'autres méthodes de base pourraient omettre un vase ou un zèbre d'une scène ou les emmêler, tandis que les résultats de Learn-to-Steer incluent toutes les bonnes pièces dans la bonne configuration[3]. Cette amélioration de la fidélité du prompt – obtenir exactement ce qui a été demandé, là où cela a été demandé – est un grand pas en avant pour la fiabilité des sorties de l'IA générative.
L'approche de Learn-to-Steer consistant à optimiser pendant l'inférence apporte à la fois des avantages et des considérations. D'une part, l'optimisation au moment du test signifie que nous n'avons pas besoin de modifier les poids du modèle ou d'effectuer un réglage fin coûteux pour les tâches spatiales[42]. Le même modèle pré-entraîné peut être « dirigé » de manière flexible uniquement lorsque cela est nécessaire, préservant ainsi sa polyvalence originale lorsque le contrôle spatial n'est pas requis[34]. Cela évite le type de compromis observé avec les modèles ajustés qui pourraient suradapter aux relations spatiales au détriment d'autres compétences (comme la précision des couleurs ou le comptage)[34]. Dans l'approche de NVIDIA, si une invite ne spécifie pas de relations spatiales, on pourrait simplement exécuter le modèle de diffusion normalement sans surcharge supplémentaire, maintenant la vitesse et les caractéristiques de sortie originales. La direction intervient uniquement pour les invites qui l'exigent[43].
Cependant, l'inconvénient est que lorsque nous invoquons cette perte au moment de l'inférence, elle entraîne un coût computationnel. Le processus nécessite de faire fonctionner le classificateur et de rétropropager les gradients plusieurs fois pendant la génération, ce qui peut ralentir considérablement la synthèse d'images. Les auteurs ont mesuré à quel point les choses ralentissent : pour le modèle plus petit Flux 1.0-schnell, la génération est passée de ~0,5 seconde par image à ~16,5 secondes avec Learn-to-Steer – soit un ralentissement d'environ 33×[44]. Pour le modèle plus grand Flux 1.0-dev, 11 secondes sont devenues 6 minutes (~33× plus lent). Stable Diffusion 2.1, qui prend normalement environ 4,5 secondes par image sur leur matériel, est monté à ~90 secondes avec le steering (~20× plus lent)[44]. SD1.4 a vu une augmentation similaire (4,5s à ~80s)[44]. Ce sont des surcoûts non négligeables. Dans des scénarios où la vitesse et l'évolutivité sont cruciales (par exemple, la génération d'images à haut débit ou les applications en temps réel), appliquer l'optimisation au moment du test à chaque image peut être impraticable.
Il existe plusieurs façons de réduire cela. L'une d'elles est de limiter quand et comment l'optimisation est appliquée. Learn-to-Steer n'optimise que pendant la première moitié des étapes de diffusion dans leur implémentation, ce qu'ils ont trouvé suffisant pour définir la direction de l'image. De plus, comme mentionné, elle peut être utilisée de manière sélective : un service d'images IA pourrait générer une image normalement, et ce n'est que si le résultat semble spatialement incorrect (ou si l'utilisateur demande explicitement une mise en page spatiale stricte) qu'il effectuerait alors un second passage avec L2S activé. Une autre approche consiste à améliorer l'efficacité : comme le classificateur de relations est assez petit et que seules quelques cartes d'attention sont impliquées, la surcharge provient principalement de la rétropropagation à travers le grand modèle de diffusion pendant plusieurs étapes. Les recherches futures pourraient explorer l'accélération de ce processus avec de meilleurs optimiseurs ou des mises à jour partielles. Néanmoins, à l'heure actuelle, la méthode est mieux adaptée aux cas où la précision est plus importante que la vitesse – par exemple, générer un diagramme ou une scène précise pour un design, ou traiter des lots relativement petits d'images où la qualité prime sur la quantité.
Généralité et robustesse sont un autre aspect des compromis. Le cadre Learn-to-Steer s'est révélé étonnamment général à travers les architectures de modèles (UNet vs MMDiT)[24], ce qui suggère qu'il pourrait être applicable à d'autres modèles de diffusion ou systèmes futurs avec une adaptation minimale. La condition est de pouvoir extraire du modèle une attention croisée ou un signal d'alignement similaire. Il montre également une robustesse dans la gestion de multiples relations et combinaisons d'objets jamais vues auparavant grâce à sa méthode d'entraînement (en se concentrant sur des schémas d'attention génériques). Cependant, il est important de noter certaines limitations. L'analyse du papier indique que ce qui est considéré comme « au-dessus » ou « en dessous » est jugé en 2D – par les pixels de l'image et l'attention – ce qui pourrait ne pas toujours correspondre à une compréhension spatiale réelle en 3D[45]. Par exemple, si un objet est devant un autre dans l'espace 3D, sous un certain angle de caméra, il pourrait apparaître en dessous de l'autre dans l'image 2D, confondant la relation spatiale. Learn-to-Steer ne modélise pas explicitement la profondeur ou les relations de taille réelle ; il apprend uniquement à partir des superpositions d'attention visuelle. Ainsi, dans des scènes complexes avec perspective, il pourrait imposer une relation qui a du sens dans la projection 2D mais pas dans un sens physique réel[45]. De plus, bien que la méthode puisse gérer jusqu'à trois relations, sa précision diminue lorsque les scènes deviennent très encombrées[46]. Générer une scène parfaite avec, disons, cinq objets, tous relatifs les uns aux autres, reste un défi ouvert – parfois la méthode réussit, d'autres fois non[37]. Ces limitations soulignent qu'il y a de la place pour l'amélioration, possiblement en incorporant un raisonnement plus sophistiqué ou une planification en plusieurs étapes pour des instructions complexes.
En améliorant considérablement la fidélité spatiale, le modèle Learn-to-Steer de NVIDIA marque une étape importante vers des systèmes multimodaux plus fiables. Pour les utilisateurs – qu'ils soient artistes, designers ou développeurs d'entreprise – disposer d'un modèle de conversion texte-image qui respecte réellement les instructions spatiales signifie moins de frustration et de correction manuelle. Cela nous rapproche de « ce que vous invitez est ce que vous obtenez. » Cette fidélité ne concerne pas seulement les belles images ; il s'agit d'aligner la sortie de l'IA avec l'intention de l'utilisateur de manière contrôlable. En un sens, cela renforce l'alignement multimodal : la modalité textuelle (les relations décrites dans le langage) est plus fidèlement reflétée dans la modalité visuelle (l'image générée)[3]. Un meilleur alignement sur le raisonnement spatial peut également se répercuter sur d'autres aspects de l'invite, car l'approche montre qu'il est possible de cibler des modes d'échec spécifiques (comme le placement des objets) sans en altérer d'autres (comme la couleur, le nombre ou la cohérence globale)[34]. C'est une démonstration que nous pouvons injecter du « bon sens » spécifique à un domaine dans un grand modèle génératif après coup, plutôt que de compter sur le fait qu'un modèle géant unique réussisse tout dès le départ.
Le succès de l'utilisation des cartes d'attention croisée comme signal d'apprentissage pourrait influencer les conceptions de modèles futurs et les régimes d'entraînement. Une implication est que les futurs modèles de diffusion pourraient intégrer des modules qui surveillent ou imposent certaines contraintes en interne. Par exemple, un modèle de nouvelle génération pourrait inclure une perte apprise (comme ce classificateur) dans le cadre de son entraînement, et pas seulement de l'inférence. Un tel modèle s'entraînerait efficacement avec un tuteur qui le pénalise chaque fois qu'il dispose les objets de manière incorrecte, internalisant potentiellement le raisonnement spatial de bout en bout. Cela pourrait à terme réduire le besoin d'optimisation au moment du test. En attendant, des approches comme Learn-to-Steer offrent une boîte à outils polyvalente : elles peuvent être superposées sur des modèles existants comme une forme de spécialisation post-entraînement. Cela est attrayant pour des cas d'utilisation en entreprise où l'on pourrait prendre un modèle pré-entraîné général et l'adapter en toute sécurité à une exigence de niche (comme toujours respecter les instructions de mise en page) sans risquer l'intégrité du modèle sur d'autres tâches.
Il y a aussi un message plus large sur la conception de perte basée sur les données. Concevoir manuellement une fonction de perte revient essentiellement à deviner comment le modèle doit se comporter, tandis qu'apprendre une fonction de perte permet au modèle de nous dire ce qui fonctionne. Ici, en sondant l'attention du modèle lui-même, les chercheurs laissent les données (images inversées et cartes d'attention) révéler l'objectif correct. Ce principe pourrait être appliqué à d'autres problèmes d'alignement génératif. Nous pourrions voir un « pilotage appris » analogue pour assurer la cohérence des attributs (par exemple, qu'un « cube rouge » soit effectivement rouge), le comptage (s'assurer qu'une demande pour cinq pommes donne cinq pommes distinctes), ou même la cohérence du style à travers plusieurs images. Chacun impliquerait l'entraînement d'un petit réseau sur les internes du modèle pour guider un aspect spécifique de la génération.
Finalement, l’ingénierie des invites pourrait devenir moins un art et plus une science grâce à de telles techniques. Au lieu de tordre nos invites textuelles pour inciter un modèle à faire ce que nous voulons (« peut-être que si je dis ‘un chien à l’extrême droite d’un ours en peluche’, il comprendra… »), nous pouvons compter sur des contrôleurs appris pour imposer l'interprétation. Cela libère les utilisateurs pour spécifier ce qu'ils veulent en termes simples et faire confiance au système pour gérer le reste. Dans les invites multi-parties ou les scènes complexes, avoir la capacité de maintenir le contrôle sur chaque relation ou détail signifie que les modèles génératifs peuvent être utilisés pour des tâches plus compositionnelles – comme rédiger un storyboard, concevoir une mise en page d'interface utilisateur, ou générer des diagrammes scientifiques – où la précision spatiale est cruciale.
En résumé, l'article d'NVIDIA sur l'apprentissage de la conduite démontre un équilibre perspicace entre l'apprentissage automatique et la résolution pratique des problèmes. En exploitant la propre connaissance d'un modèle (via l'attention croisée) et en injectant un objectif appris lors de l'inférence, il atteint un nouveau niveau de fidélité des invites pour les demandes spatiales. Cette approche implique des compromis en termes de coût de calcul, mais elle ouvre la voie à des améliorations très ciblées des modèles génératifs sans les réentraîner depuis le début. Alors que les modèles de diffusion deviennent de plus en plus centraux dans la création de contenu IA, des solutions comme celle-ci garantissent que les “détails mineurs” tels que l'emplacement des éléments dans l'image ne seront pas facilement négligés. C'est un exemple convaincant de la manière dont un peu d'intelligence supplémentaire – sous la forme d'une fonction de perte apprise – peut orienter un modèle génératif massif vers des sommets encore plus grands d'alignement avec l'intention humaine[3][47]. L'avenir pourrait impliquer l'intégration de tels mécanismes directement dans la formation des modèles ou leur expansion à de nouveaux types de contraintes, mais une chose est claire : laisser les modèles apprendre à se diriger eux-mêmes est une idée puissante que nous verrons probablement beaucoup plus à l'avenir.
[1] [4] [7] Fonctions de perte axées sur les données pour l'optimisation en temps d'inférence dans la génération de texte à image
https://learn-to-steer-paper.github.io/
[2] [3] [5] [6] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] Fonctions de perte basées sur les données pour l'optimisation à l'heure de l'inférence dans la génération de texte en image