
Autor: Boxu Li
Los modelos de difusión de texto a imagen pueden generar imágenes impresionantes, pero tienen un punto ciego notorio: el razonamiento espacial. Los mejores modelos actuales a menudo colocan mal objetos en una escena o los fusionan de manera extraña cuando se les solicita distribuciones específicas. Por ejemplo, un comando como “un perro a la derecha de un oso de peluche” puede confundir a un modelo: puede colocar al perro a la izquierda o incluso fusionar al perro y al oso juntos. Estas son tareas que un niño pequeño encuentra triviales, sin embargo, los modelos de difusión frecuentemente fallan en ellas. El problema se vuelve aún más pronunciado con combinaciones inusuales (imagina una jirafa de pie sobre un avión). Las soluciones tradicionales implican ajustar finamente los modelos con datos especiales o agregar pérdidas espaciales hechas a mano en el momento de la generación, pero ambos enfoques tienen desventajas. El ajuste fino requiere un reentrenamiento costoso y corre el riesgo de alterar la creatividad o el estilo del modelo. Las pérdidas hechas a mano, por otro lado, codifican nuestras propias suposiciones imperfectas sobre las relaciones espaciales, a menudo produciendo resultados subóptimos.
Descubre Learn-to-Steer, el novedoso enfoque de NVIDIA (que se presentará en WACV 2026) que aborda el razonamiento espacial aprendiendo directamente del propio modelo. En lugar de codificar manualmente dónde deberían ir los objetos, la idea es enseñar al modelo a guiarse por sí mismo durante la generación de imágenes usando funciones de pérdida basadas en datos. En esta entrada del blog, exploraremos los desafíos del razonamiento espacial en modelos de difusión y cómo funciona el método Learn-to-Steer de NVIDIA internamente. Profundizaremos en su arquitectura, incluyendo cómo aprovecha los mapas de atención cruzada y un clasificador aprendido en la inferencia, y revisaremos los avances cuantitativos en los benchmarks. También examinaremos críticamente los compromisos de optimizar en el momento de la inferencia (como el costo computacional y la generalización) y consideraremos las implicaciones más amplias para la fidelidad del prompt, la alineación multimodal y el futuro del diseño de modelos generativos.
Los modelos de difusión modernos como Stable Diffusion pueden pintar escenas fotorrealistas o fantásticas con impresionante detalle. Sin embargo, pedir una disposición espacial simple puede resultar decepcionante. El razonamiento espacial – entender y generar posiciones relativas correctas (izquierda/derecha, arriba/abajo, dentro/fuera) – sigue siendo un obstáculo. Las indicaciones que especifican relaciones entre objetos a menudo producen imágenes que no se alinean con la solicitud. Por ejemplo, una indicación “un gato encima de una estantería” podría producir un gato al lado de la estantería o un surrealista híbrido gato-estantería. ¿Por qué sucede esto?
Una razón es que los modelos de difusión aprenden de enormes conjuntos de datos de imagen-texto donde las relaciones espaciales explícitas son raras o ambiguas. Estos modelos se destacan en el estilo y la fidelidad de los objetos, pero los datos de entrenamiento pueden no reforzar fuertemente dónde debe aparecer cada objeto en relación con otros. Como resultado, la representación interna del modelo de los términos espaciales (“encima de”, “a la derecha de”) es débil. Los recientes benchmarks confirman que incluso los modelos de texto a imagen más avanzados tienen dificultades en tareas espaciales que involucran relaciones geométricas simples. Estos fallos se presentan en tres problemas principales: colocación incorrecta de objetos, objetos faltantes que estaban en la indicación o objetos fusionados y quiméricos cuando el modelo intenta combinar dos cosas. En resumen, el modelo a menudo sabe qué se pidió, pero no dónde colocarlo.
Los métodos existentes han intentado abordar esta brecha. Algunos investigadores ajustan modelos de difusión en imágenes con diseños o relaciones conocidas, reentrenando efectivamente el modelo para que sea consciente espacialmente. Otros utilizan intervenciones en tiempo de prueba: por ejemplo, guiar la generación con términos de pérdida adicionales que penalizan la superposición o premian el orden correcto de los objetos. Sin embargo, diseñar manualmente tales funciones de pérdida es complicado: requiere adivinar cómo medir “a la izquierda de” o “encima de” usando los datos internos del modelo. Estas pérdidas hechas a mano pueden funcionar para casos simples, pero pueden codificar heurísticas subóptimas, fallando en escenas más complejas[4]. Por su parte, el ajuste fino puede lograr buena precisión espacial (por ejemplo, el método COMPASS reentrena un modelo con datos espacialmente alineados[5]), pero es intensivo en recursos y puede degradar inadvertidamente otras cualidades de la imagen (en un caso, la precisión del color y el conteo de objetos empeoraron después del ajuste fino para relaciones espaciales[6]). Se necesita una solución que mejore la fidelidad espacial sin reentrenar todo el modelo o depender de heurísticas frágiles.

El marco Learn-to-Steer de NVIDIA ofrece un enfoque novedoso: en lugar de imponer reglas, apréndelas a partir de las propias señales del modelo[7]. La clave es que los modelos de difusión ya producen datos internos ricos durante la generación, especialmente en forma de mapas de atención cruzada, que se pueden extraer para comprender las relaciones espaciales. Los mapas de atención cruzada se generan en cada paso del proceso de eliminación de ruido de difusión y esencialmente nos indican qué regiones de la imagen están prestando atención a una palabra dada en el prompt[8]. En otras palabras, forman un puente entre los tokens textuales (como “perro”, “oso de peluche”, “a la derecha de”) y las ubicaciones de la imagen[8]. Trabajos anteriores notaron que estos mapas de atención pueden interpretarse para localizar objetos, por lo que es natural utilizarlos como guía. Los métodos de optimización en tiempo de prueba a menudo eligen los mapas de atención cruzada como objetivo para sus pérdidas espaciales debido a esta interpretabilidad y alineación directa texto-imagen[9].
Learn-to-Steer (L2S) se basa en esta idea al aprender una función objetivo a partir de datos en lugar de crear una manualmente. Introduce un clasificador de relaciones ligero que se entrena sin conexión para reconocer relaciones espaciales a partir de los patrones de atención cruzada del modelo de difusión[7]. Durante la inferencia, este clasificador actúa como una función de pérdida aprendida: evalúa si la imagen generada (hasta el momento) refleja correctamente la relación del aviso, y si no es así, dirige la generación en la dirección correcta[7]. Esencialmente, el equipo de NVIDIA enseñó al modelo de difusión a criticar sus propios mapas de atención y ajustarse en consecuencia, todo sobre la marcha sin alterar los pesos del modelo.
Entrenar este clasificador de relaciones resultó ser más complejo de lo que parece. Un enfoque directo podría ser: tomar un montón de imágenes con relaciones conocidas (por ejemplo, imágenes anotadas que indican que “el perro está a la izquierda del gato”), ejecutar el proceso de inversión del modelo de difusión para obtener mapas de atención para “perro” y “gato”, y luego entrenar al clasificador para que emita “a la izquierda de” para esos mapas. Esto efectivamente proporciona supervisión. Sin embargo, surgió un problema inesperado: algo que los autores llaman el problema de “fuga de relación”[10][11]. El clasificador comenzó a hacer trampa al captar rastros lingüísticos de la relación en los mapas de atención, en lugar de comprender verdaderamente la disposición espacial. ¿Cómo es eso posible? Resulta que cuando inviertes una imagen usando el prompt descriptivo correcto (por ejemplo, “un perro a la izquierda de un gato”), pistas sutiles sobre la palabra “izquierda” podrían codificarse en las activaciones internas del modelo. El clasificador luego se aferra a estas pistas (efectivamente leyendo el prompt desde el mapa de atención) en lugar de aprender el concepto visual de “a la izquierda de”[10][12]. El resultado: funciona bien con los datos de entrenamiento pero falla durante la generación, porque en la generación la palabra de relación del prompt siempre coincide con la imagen (no hay nada que distinga si la disposición espacial es correcta o no si el clasificador solo está repitiendo el prompt).
Para resolver esto, Learn-to-Steer utiliza una ingeniosa estrategia de entrenamiento de inversión dual[13][14]. Para cada imagen de entrenamiento, generan dos versiones de los mapas de atención: una a partir de un mensaje positivo que describe correctamente la relación espacial (por ejemplo, “Un perro a la izquierda de un gato”) y otra a partir de un mensaje negativo que utiliza deliberadamente la relación incorrecta (por ejemplo, “Un perro encima de un gato”)[15][16]. Ambos conjuntos de mapas de atención se etiquetan con la relación verdadera (“a la izquierda de” en este ejemplo), basada en la disposición real de la imagen. Al ver la misma relación de imagen con descripciones textuales contradictorias, el clasificador se ve obligado a ignorar la pista lingüística poco fiable y a centrarse en el patrón geométrico genuino en los mapas de atención[14]. Esto asegura que aprenda invariancia: ya sea que el mensaje diga “izquierda” o “encima”, el clasificador debe detectar que el perro está realmente a la izquierda del gato basándose únicamente en la evidencia espacial. Este enfoque de inversión dual neutraliza el problema de fuga, resultando en un clasificador que realmente comprende las relaciones espaciales en términos de la visión del modelo, no solo de los mensajes de texto[17].
Otro aspecto importante es los datos de entrenamiento para este clasificador. El equipo utilizó tanto imágenes reales como imágenes sintéticas para cubrir una amplia gama de escenarios[18]. Las imágenes reales (de un conjunto de datos llamado GQA) proporcionan complejidad natural y arreglos variados de objetos, aunque sus mapas de atención pueden ser ruidosos cuando las escenas están abarrotadas[18]. Las imágenes sintéticas, generadas de manera controlada (usando un método de Generación-de-Imágenes-CoT), ofrecen escenas más simples con patrones de atención más claros, similares a los que se encuentran durante la generación de difusión[18]. Al combinar datos reales y sintéticos, el clasificador se beneficia tanto del realismo como de la claridad. Un estudio de ablación confirmó que usar ambas fuentes de datos condujo a una mejor precisión que usar solo una de ellas[19].
Una vez que el clasificador de relaciones está entrenado, Learn-to-Steer lo integra en el proceso de difusión para dirigir las imágenes a medida que se generan. Esto ocurre durante la inferencia (tiempo de generación) y no requiere cambios en los pesos del modelo de difusión. Así es como funciona:
Cuando se proporciona un texto que incluye una relación espacial (por ejemplo, “un perro a la derecha de un oso de peluche”), el sistema primero analiza el texto para identificar el sujeto, el objeto y la relación (en este caso, sujeto: perro, relación: a la derecha de, objeto: oso de peluche)[20]. A medida que el modelo de difusión comienza a eliminar el ruido latente aleatorio para formar una imagen, Learn-to-Steer interviene en ciertos momentos. A una frecuencia elegida (por ejemplo, en cada paso o cada pocos pasos en la primera mitad del proceso de difusión), extrae los mapas de atención cruzada correspondientes a los dos objetos en cuestión[20]. Estos son esencialmente la “creencia” actual del modelo sobre dónde podría estar cada objeto en la imagen emergente. Los mapas de atención extraídos se introducen en el clasificador de relaciones entrenado, que produce una distribución de probabilidad sobre las posibles relaciones (a la izquierda de, a la derecha de, encima de, debajo de, etc.)[20][21]. Dado que sabemos cuál es la relación deseada del texto, el sistema puede calcular una pérdida, por ejemplo, una pérdida de entropía cruzada que penaliza al clasificador si no está seguro de la relación correcta[20][22].
Ahora viene la parte de dirección: el gradiente de esta pérdida se retropropaga en la representación latente del modelo de difusión (la imagen ruidosa en proceso) en ese momento[23]. En la práctica, esto significa ajustar las variables latentes en una dirección que debería aumentar la probabilidad de la relación correcta según el clasificador. Intuitivamente, si el clasificador piensa que el perro no está suficientemente a la derecha del oso de peluche en la imagen parcial actual, el gradiente desplazará el latente de una manera que mueva las características del perro hacia la derecha (o las del oso hacia la izquierda). El proceso de difusión continúa entonces con este latente y ruido ligeramente ajustados. Al aplicar iterativamente estas actualizaciones guiadas, la generación es "dirigida" hacia una imagen que se ajusta a la instrucción espacial sin decirle explícitamente al modelo dónde dibujar cada objeto. Es como si el modelo tuviera un entrenador susurrando durante la pintura: "mueve al perro un poco más a la derecha."

Un aspecto emocionante de Learn-to-Steer es que funciona en diferentes arquitecturas de difusión. Los autores lo demostraron tanto en Stable Diffusion (un modelo popular basado en UNet) como en Flux (un modelo de difusión basado en MMDiT), con cambios mínimos[24]. El enfoque es independiente de la arquitectura porque se basa en señales genéricas (mapas de atención) y un clasificador separado. Esto significa que modelos futuros o alternativos de texto a imagen podrían potencialmente ser "conectados" al mismo mecanismo de dirección entrenando un nuevo clasificador en las salidas de atención de ese modelo. Además, aunque el sistema fue entrenado en relaciones de pares de objetos individuales, puede manejar solicitudes que encadenan múltiples relaciones. Por ejemplo, considera una solicitud: "una rana sobre una zapatilla debajo de una tetera". Esto tiene dos relaciones ("rana sobre zapatilla" y "zapatilla debajo de tetera") que involucran tres objetos. Learn-to-Steer aborda tales casos alternando el enfoque de optimización entre relaciones en diferentes pasos de tiempo[25][26]. Optimizará el latente para la relación rana-zapatilla en un paso, luego la relación zapatilla-tetera en el siguiente, y así sucesivamente de manera circular. Usando esta estrategia, el método fue capaz de imponer múltiples restricciones espaciales en una sola imagen, algo que las funciones de pérdida estática o las solicitudes ingenuas a menudo no logran. (En la práctica, los autores encontraron que expresar una solicitud de múltiples relaciones de manera simple y encadenada – por ejemplo, "Una rana sobre una zapatilla debajo de una tetera" – dio mejores resultados que una oración más verbosa con conjunciones[27].)
¿Qué tanto mejora el aprendizaje de dirección la comprensión espacial en imágenes generadas? El artículo reporta avances significativos en precisión en evaluaciones estándar de texto a imagen para relaciones espaciales. Se utilizan dos benchmarks: GenEval (que verifica si las imágenes generadas cumplen con un prompt de relación dado) y T2I-CompBench (Benchmark de Composición de Texto a Imagen, otra prueba para arreglos espaciales). El equipo evaluó cuatro modelos de difusión diferentes: dos variantes de Flux y Stable Diffusion 2.1 y 1.4, comparando generación estándar con varios métodos. Los resultados son claros: los objetivos de dirección aprendida superan tanto a los modelos no guiados como a los métodos previos por un amplio margen[28]. Algunos aspectos destacados:
Igualmente reveladores son los resultados cualitativos. Los ejemplos del documento muestran que con Learn-to-Steer, las imágenes generadas reflejan fielmente las instrucciones espaciales del mensaje mientras mantienen una alta calidad de imagen[40]. En escenarios donde la difusión estándar u otros métodos colocarían objetos incorrectamente u omitirían algunas entidades, L2S produce imágenes donde los objetos están correctamente dispuestos y todos presentes. También maneja peticiones inusuales con gracia - por ejemplo, puede renderizar “un autobús debajo de un cepillo de dientes” o “un elefante debajo de una tabla de surf” con el orden espacial correcto y sin las fusiones extrañas que otros métodos producen[41]. El equipo de NVIDIA señala que su método supera las tres fallas comunes: corrige la colocación incorrecta de objetos, previene la negligencia de entidades (cada objeto del mensaje aparece en la imagen) y evita la fusión de objetos (no más híbridos surrealistas causados por la confusión del modelo entre dos elementos)[3]. En comparaciones lado a lado, otros métodos de referencia podrían omitir un jarrón o una cebra de una escena o entrelazarlos, mientras que los resultados de Learn-to-Steer incluyen todas las piezas correctas en la configuración adecuada[3]. Este aumento en la fidelidad del mensaje – obtener exactamente lo que se pidió, donde se pidió – es un gran avance para la fiabilidad de los resultados generativos de IA.
El enfoque de Learn-to-Steer para optimizar durante la inferencia presenta tanto ventajas como consideraciones. Por el lado positivo, la optimización en el tiempo de prueba significa que no necesitamos alterar los pesos del modelo ni realizar un ajuste fino costoso para tareas espaciales[42]. El mismo modelo preentrenado puede ser “dirigido” de manera flexible solo cuando se necesite, preservando su versatilidad original cuando no se requiere control espacial[34]. Esto evita el tipo de compromiso que se ve con los modelos ajustados que podrían sobreajustarse a relaciones espaciales a expensas de otras habilidades (como precisión de color o conteo)[34]. En el enfoque de NVIDIA, si un prompt no especifica relaciones espaciales, simplemente se podría ejecutar el modelo de difusión normalmente sin costes adicionales, manteniendo la velocidad y las características de salida originales. La dirección se activa solo para los prompts que lo demandan[43].
Sin embargo, el lado opuesto es que cuando invocamos esta pérdida en el momento de la inferencia, viene con un costo computacional. El proceso requiere ejecutar el clasificador y retropropagar gradientes múltiples veces durante la generación, lo que puede ralentizar considerablemente la síntesis de imágenes. Los autores midieron cuánto más lento se vuelve: para el modelo más pequeño Flux 1.0-schnell, la generación pasó de ~0.5 segundos por imagen a ~16.5 segundos con Learn-to-Steer, aproximadamente una ralentización de 33×[44]. Para el más grande Flux 1.0-dev, 11 segundos se convirtieron en 6 minutos (~33× más lento). Stable Diffusion 2.1, que normalmente toma alrededor de 4.5 segundos por imagen en su hardware, subió a ~90 segundos con el ajuste (~20× más lento)[44]. SD1.4 experimentó un salto similar (4.5s a ~80s)[44]. Estos son sobrecostos no triviales. En escenarios donde la velocidad y la escalabilidad son cruciales (por ejemplo, generación de imágenes de alto rendimiento o aplicaciones en tiempo real), aplicar la optimización en el momento de prueba a cada imagen puede ser poco práctico.
Hay algunas formas de mitigar esto. Una es limitar cuándo y cómo se aplica la optimización. Learn-to-Steer solo optimiza durante la primera mitad de los pasos de difusión en su implementación[23], lo que encontraron suficiente para establecer el rumbo de la imagen. Además, como se mencionó, puede usarse selectivamente: un servicio de imágenes de IA podría generar una imagen normalmente, y solo si el resultado parece espacialmente incorrecto (o el usuario solicita explícitamente un diseño espacial estricto) se haría una segunda pasada con L2S habilitado. Otro enfoque es mejorar la eficiencia: dado que el clasificador de relaciones es bastante pequeño y solo se involucran algunos mapas de atención, la sobrecarga proviene principalmente de hacer retropropagación a través del gran modelo de difusión por múltiples pasos. La investigación futura podría explorar acelerar esto con mejores optimizadores o actualizaciones parciales. No obstante, en la actualidad, el método es más adecuado para casos donde la precisión importa más que la velocidad – por ejemplo, generando un diagrama o escena precisa para un diseño, o manejando lotes relativamente pequeños de imágenes donde la calidad supera la cantidad.
Generalidad y robustez son otro aspecto de los compromisos. El marco Learn-to-Steer demostró ser sorprendentemente general a través de arquitecturas de modelos (UNet vs MMDiT)[24], lo que sugiere que podría ser aplicable a otros modelos de difusión o sistemas futuros con una mínima adaptación. El requisito es que se pueda extraer una señal de alineación de atención cruzada o similar del modelo. También muestra robustez al manejar múltiples relaciones y combinaciones de objetos nunca antes vistas gracias a cómo fue entrenado (centrándose en patrones de atención genéricos). Sin embargo, vale la pena señalar algunas limitaciones. El análisis del documento señala que lo que se considera "arriba" o "abajo" se juzga en 2D, por los píxeles de la imagen y la atención, lo cual podría no alinearse siempre con una verdadera comprensión espacial 3D[45]. Por ejemplo, si un objeto está frente a otro en el espacio 3D, desde cierto ángulo de cámara podría parecer debajo del otro en la imagen 2D, confundiendo la relación espacial. Learn-to-Steer no modela explícitamente la profundidad ni las relaciones de tamaño del mundo real; aprende puramente de superposiciones de atención visual. Así que en escenas complejas con perspectiva, podría imponer una relación que tiene sentido en la proyección 2D pero no en un sentido físico real [45]. Además, aunque el método puede manejar hasta tres relaciones, su precisión disminuye a medida que las escenas se vuelven muy concurridas[46]. Generar una escena perfecta con, por ejemplo, cinco objetos, todos relativos entre sí sigue siendo un desafío abierto – a veces el método tiene éxito, otras no[37]. Estas limitaciones destacan que hay espacio para mejorar, posiblemente incorporando un razonamiento más sofisticado o una planificación de múltiples pasos para indicaciones complejas.
Al mejorar drásticamente la fidelidad espacial, el Learn-to-Steer de NVIDIA marca un paso importante hacia sistemas multimodales más confiables. Para los usuarios, ya sean artistas, diseñadores o desarrolladores empresariales, tener un modelo de texto a imagen que realmente respete las instrucciones espaciales significa menos frustración y corrección manual. Nos acerca a “lo que solicitas es lo que obtienes.” Esta fidelidad no se trata solo de imágenes bonitas; se trata de alinear la salida del AI con la intención del usuario de una manera controlable. En cierto sentido, mejora la alineación multimodal: la modalidad textual (relaciones descritas en el lenguaje) se refleja más fielmente en la modalidad visual (la imagen generada)[3]. La mejora en la alineación del razonamiento espacial también puede trasladarse a otros aspectos del prompt, ya que el enfoque demuestra que es posible abordar modos de fallo específicos (como la colocación de objetos) sin arruinar otros (como el color, la cantidad o la coherencia general)[34]. Es una demostración de que podemos inyectar “sentido común” específico de dominio en un modelo generativo grande de manera post-hoc, en lugar de esperar que un solo modelo gigante haga todo bien desde el principio.
El éxito de utilizar mapas de atención cruzada como señal de enseñanza podría influir en los diseños de modelos futuros y en los regímenes de entrenamiento. Una implicación es que los modelos de difusión futuros podrían integrar módulos que monitoreen o impongan ciertas restricciones internamente. Por ejemplo, un modelo de próxima generación podría incluir una pérdida aprendida (como este clasificador) como parte de su entrenamiento, no solo en la inferencia. Tal modelo entrenaría de manera efectiva con un tutor que lo penalice cada vez que disponga objetos incorrectamente, potencialmente internalizando el razonamiento espacial de principio a fin. Eso podría reducir la necesidad de optimización en el tiempo de prueba a largo plazo. Mientras tanto, enfoques como Learn-to-Steer proporcionan un conjunto de herramientas versátil: pueden superponerse sobre modelos existentes como una forma de especialización post-entrenamiento. Esto es atractivo para casos de uso empresariales donde uno podría tomar un modelo preentrenado general y adaptarlo de manera segura a un requisito específico (como siempre seguir instrucciones de disposición) sin poner en riesgo la integridad del modelo en otras tareas.
También hay un mensaje más amplio sobre el diseño de pérdida basado en datos. Crear a mano una función de pérdida es esencialmente adivinar cómo debería comportarse el modelo, mientras que aprender una función de pérdida permite que el modelo nos diga qué funciona. Aquí, al sondear la propia atención del modelo, los investigadores permiten que los datos (imágenes invertidas y mapas de atención) revelen el objetivo correcto. Este principio podría aplicarse a otros problemas de alineación generativa. Podríamos ver una “dirección aprendida” análoga para asegurar la consistencia de atributos (por ejemplo, que un “cubo rojo” salga rojo), el conteo (asegurarse de que una solicitud de cinco manzanas genere cinco manzanas distintas) o incluso la consistencia de estilo a través de múltiples imágenes. Cada uno implicaría entrenar una pequeña red en los internos del modelo para guiar un aspecto específico de la generación.
Finalmente, el ingeniería de prompts podría convertirse menos en un arte y más en una ciencia gracias a estas técnicas. En lugar de retorcer nuestros textos para persuadir a un modelo de hacer lo que queremos (“tal vez si digo ‘un perro a la extrema derecha de un oso de peluche’ escuchará…”), podemos confiar en controladores aprendidos para asegurar la interpretación. Esto libera a los usuarios para especificar lo que desean en términos sencillos y confiar en que el sistema manejará el resto. En prompts de múltiples partes o escenas complejas, tener la capacidad de mantener el control sobre cada relación o detalle significa que los modelos generativos pueden usarse para tareas más composicionales – como redactar un guion gráfico, diseñar un diseño de interfaz de usuario o generar diagramas científicos – donde la precisión espacial es crucial.
En resumen, el documento Learn-to-Steer de NVIDIA demuestra un equilibrio perspicaz entre el aprendizaje automático y la resolución práctica de problemas. Al aprovechar el conocimiento propio de un modelo (a través de la atención cruzada) e inyectar un objetivo aprendido durante la inferencia, logra un nuevo nivel de fidelidad en las indicaciones para solicitudes espaciales. El enfoque tiene compensaciones en el costo computacional, pero abre la puerta a mejoras altamente específicas de los modelos generativos sin tener que reentrenarlos desde cero. A medida que los modelos de difusión se vuelven cada vez más centrales en la creación de contenido de IA, soluciones como esta aseguran que “detalles menores” como dónde se encuentran las cosas en la imagen no se pasen por alto tan fácilmente. Es un ejemplo convincente de cómo un poco de inteligencia adicional, en forma de una función de pérdida aprendida, puede dirigir un modelo generativo masivo hacia mayores alturas de alineación con la intención humana[3][47]. El camino por delante podría implicar integrar tales mecanismos directamente en el entrenamiento del modelo o expandirlos a nuevos tipos de restricciones, pero una cosa está clara: dejar que los modelos aprendan a dirigirse a sí mismos es una idea poderosa que probablemente veremos mucho más en el futuro.
[1] [4] [7] Funciones de pérdida basadas en datos para la optimización en tiempo de inferencia en generación de texto a imagen
https://learn-to-steer-paper.github.io/
[2] [3] [5] [6] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] Funciones de pérdida basadas en datos para optimización en tiempo de inferencia en generación de texto a imagen