
Autor: Boxu Li
Modelos de difusão de texto para imagem podem gerar visuais impressionantes, mas têm um ponto cego notório: o raciocínio espacial. Os melhores modelos de hoje frequentemente colocam objetos em locais errados em uma cena ou os mesclam de forma estranha quando solicitados layouts específicos. Por exemplo, um comando como “um cachorro à direita de um urso de pelúcia” pode confundir um modelo – ele pode colocar o cachorro à esquerda ou até fundir o cachorro e o urso juntos. Essas são tarefas que uma criança pequena considera triviais, mas modelos de difusão frequentemente falham nelas[1]. O problema se torna ainda mais pronunciado com combinações incomuns (imagine uma girafa em pé acima de um avião)[1]. Correções tradicionais envolvem ajustar modelos em dados especiais ou adicionar perdas espaciais feitas à mão no momento da geração, mas ambas as abordagens têm desvantagens[1]. O ajuste fino requer re-treinamento caro e corre o risco de alterar a criatividade ou estilo do modelo. Perdas feitas à mão, por outro lado, codificam nossas próprias suposições imperfeitas sobre relações espaciais, frequentemente resultando em resultados subótimos.
Conheça Learn-to-Steer, a abordagem inovadora da NVIDIA (a ser apresentada no WACV 2026) que aborda o raciocínio espacial aprendendo diretamente do próprio modelo. Em vez de codificar rigidamente onde os objetos devem ir, a ideia é ensinar o modelo a se guiar durante a geração de imagens usando funções de perda baseadas em dados. Neste post no blog, exploraremos os desafios do raciocínio espacial em modelos de difusão e como o método Learn-to-Steer da NVIDIA funciona nos bastidores. Vamos mergulhar em sua arquitetura – incluindo como utiliza mapas de cross-atention e um classificador aprendido na inferência – e revisar os ganhos quantitativos em benchmarks. Também examinaremos criticamente as compensações de otimizar no momento da inferência (como custo computacional e generalizabilidade) e consideraremos as implicações mais amplas para a fidelidade do prompt, alinhamento multimodal e o futuro do design de modelos generativos.
Modelos de difusão modernos, como o Stable Diffusion, podem pintar cenas fotorrealistas ou fantásticas com detalhes impressionantes. No entanto, pedir um arranjo espacial simples pode ser decepcionante. Raciocínio espacial – entender e gerar posições relativas corretas (esquerda/direita, acima/abaixo, dentro/fora) – continua sendo um ponto fraco. Solicitações que especificam relacionamentos de objetos muitas vezes resultam em imagens que não correspondem ao pedido. Por exemplo, uma solicitação “um gato em cima de uma estante” pode produzir um gato ao lado da estante ou um híbrido surreal de gato e estante. Por que isso acontece?
Uma razão é que os modelos de difusão aprendem a partir de enormes conjuntos de dados de imagem-texto onde as relações espaciais explícitas são raras ou ambíguas. Eles se destacam em estilo e fidelidade de objetos, mas os dados de treinamento podem não reforçar fortemente onde cada objeto deve aparecer em relação aos outros. Como resultado, a representação interna do modelo de termos espaciais (“em cima de”, “à direita de”) é fraca. Avaliações recentes confirmam que mesmo modelos de ponta de texto para imagem têm dificuldades em tarefas espaciais que envolvem relações geométricas simples[2]. Essas falhas aparecem como três problemas principais: colocação incorreta de objetos, objetos ausentes que estavam na solicitação ou objetos fusionados e quiméricos quando o modelo tenta misturar duas coisas[3]. Em resumo, o modelo geralmente sabe o que você pediu, mas não onde colocá-lo.
Métodos existentes tentaram abordar essa lacuna. Alguns pesquisadores ajustam modelos de difusão em imagens com layouts ou relações conhecidas, efetivamente re-treinando o modelo para ser espacialmente consciente. Outros utilizam intervenções em tempo de teste: por exemplo, guiando a geração com termos de perda adicionais que penalizam a sobreposição ou recompensam a ordem correta dos objetos. No entanto, projetar manualmente essas funções de perda é complicado – requer adivinhar como medir "à esquerda de" ou "acima de" usando os dados internos do modelo. Essas perdas feitas à mão podem funcionar para casos simples, mas podem codificar heurísticas subótimas, falhando em cenas mais complexas. O ajuste fino, por sua vez, pode alcançar boa precisão espacial (por exemplo, o método COMPASS re-treina um modelo com dados espacialmente alinhados) mas é intensivo em recursos e pode degradar inadvertidamente outras qualidades da imagem (em um caso, a precisão de cor e a contagem de objetos pioraram após o ajuste fino para relações espaciais). Há necessidade de uma solução que melhore a fidelidade espacial sem re-treinar todo o modelo ou depender de heurísticas frágeis.

O framework Learn-to-Steer da NVIDIA oferece uma nova abordagem: em vez de impor regras, aprenda-as a partir dos próprios sinais do modelo[7]. A principal percepção é que os modelos de difusão já produzem dados internos ricos durante a geração – particularmente na forma de mapas de atenção cruzada – que podem ser explorados para entender relações espaciais. Os mapas de atenção cruzada são gerados em cada etapa do processo de difusão de denoising e, essencialmente, nos dizem quais regiões da imagem estão prestando atenção a uma determinada palavra no prompt[8]. Em outras palavras, eles formam uma ponte entre tokens textuais (como “cachorro”, “ursinho de pelúcia”, “à direita de”) e locais na imagem[8]. Trabalhos anteriores notaram que esses mapas de atenção podem ser interpretados para localizar objetos, então é natural usá-los como guia. Métodos de otimização em tempo de teste muitas vezes escolhem mapas de atenção cruzada como alvo para suas perdas espaciais devido a essa interpretabilidade e alinhamento direto texto-imagem[9].
Learn-to-Steer (L2S) baseia-se nessa ideia, aprendendo uma função objetivo a partir de dados em vez de criar uma manualmente. Ele introduz um classificador de relação leve que é treinado offline para reconhecer relações espaciais a partir dos padrões de atenção cruzada do modelo de difusão[7]. Durante a inferência, este classificador atua como uma função de perda aprendida: ele avalia se a imagem gerada (até agora) reflete corretamente a relação do prompt e, caso contrário, orienta a geração na direção certa[7]. Essencialmente, a equipe da NVIDIA ensinou o modelo de difusão a criticar seus próprios mapas de atenção e ajustar-se conforme necessário, tudo em tempo real, sem alterar os pesos do modelo.
Treinar este classificador de relações revelou-se mais sutil do que parece. Uma abordagem direta poderia ser: pegar um monte de imagens com relações conhecidas (por exemplo, imagens anotadas com “cachorro está à esquerda do gato”), executar o processo de inversão do modelo de difusão para obter mapas de atenção para “cachorro” e “gato”, e então treinar o classificador para emitir “à esquerda de” para esses mapas. Isso realmente fornece supervisão. No entanto, surgiu um problema inesperado – algo que os autores chamam de problema de “vazamento de relação”[10][11]. O classificador começou a trapacear captando traços linguísticos da relação nos mapas de atenção, em vez de realmente entender o layout espacial. Como isso é possível? Descobriu-se que, quando você inverte uma imagem usando o prompt descritivo correto (digamos “um cachorro à esquerda de um gato”), pistas sutis sobre a palavra “esquerda” podem ser codificadas nas ativações internas do modelo. O classificador então agarra-se a essas pistas (efetivamente lendo o prompt de volta a partir do mapa de atenção) em vez de aprender o conceito visual de “à esquerda de”[10][12]. O resultado: ele tem um bom desempenho nos dados de treinamento, mas falha durante a geração, porque na geração a palavra de relação do prompt sempre corresponde à imagem (não há nada que distinga se a disposição espacial está correta ou não se o classificador está apenas ecoando o prompt).
Para resolver isso, o Learn-to-Steer usa uma estratégia de treinamento de dupla inversão[13][14]. Para cada imagem de treinamento, eles geram duas versões dos mapas de atenção: uma a partir de um prompt positivo que descreve corretamente a relação espacial (por exemplo, “Um cachorro à esquerda de um gato”) e outra a partir de um prompt negativo que usa deliberadamente a relação errada (por exemplo, “Um cachorro acima de um gato”)[15][16]. Ambos os conjuntos de mapas de atenção são rotulados com a verdadeira relação (“à esquerda de” neste exemplo), com base no layout real da imagem. Ao ver a mesma relação de imagem com descrições textuais conflitantes, o classificador é forçado a ignorar a dica linguística não confiável e a focar no genuíno padrão geométrico nos mapas de atenção[14]. Isso garante que ele aprenda a invariância: independentemente de o prompt dizer “esquerda” ou “acima”, o classificador deve ainda detectar que o cachorro está realmente à esquerda do gato apenas com base nas evidências espaciais. Esta abordagem de dupla inversão neutraliza o problema de vazamento, resultando em um classificador que realmente entende as relações espaciais em termos da visão do modelo, não apenas dos prompts de texto[17].
Outro aspecto importante é os dados de treinamento para este classificador. A equipe utilizou tanto imagens reais quanto imagens sintéticas para cobrir uma ampla gama de cenários[18]. Imagens reais (de um conjunto de dados chamado GQA) fornecem complexidade natural e arranjos variados de objetos, embora seus mapas de atenção possam ser ruidosos quando as cenas estão lotadas[18]. Imagens sintéticas, geradas de forma controlada (usando um método de Image-Generation-CoT), oferecem cenas mais simples com padrões de atenção mais claros, semelhantes aos encontrados durante a geração de difusão[18]. Ao misturar dados reais e sintéticos, o classificador se beneficia tanto do realismo quanto da clareza. Um estudo de ablação confirmou que o uso de ambas as fontes de dados resultou em melhor precisão do que qualquer uma isoladamente[19].
Uma vez que o classificador de relação está treinado, o Learn-to-Steer o insere no processo de difusão para orientar as imagens à medida que são geradas. Isso acontece durante a inferência (tempo de geração) e não requer nenhuma alteração nos pesos do modelo de difusão. Veja como funciona:
Quando é fornecido um prompt de texto que inclui uma relação espacial (por exemplo, "um cachorro à direita de um ursinho de pelúcia"), o sistema primeiro analisa o prompt para identificar o sujeito, objeto e relação (neste caso, sujeito: cachorro, relação: à direita de, objeto: ursinho de pelúcia)[20]. À medida que o modelo de difusão começa a eliminar o ruído latente aleatório em uma imagem, o Learn-to-Steer intervém em certos momentos. Em uma frequência escolhida (por exemplo, a cada passo ou a cada poucos passos na primeira metade do processo de difusão), ele extrai os mapas de atenção cruzada correspondentes aos dois objetos em questão[20]. Essencialmente, estes são a "crença" atual do modelo sobre onde cada objeto pode estar na imagem em formação. Os mapas de atenção extraídos são alimentados no classificador de relações treinado, que produz uma distribuição de probabilidade sobre relações possíveis (à esquerda de, à direita de, acima, abaixo, etc.)[20][21]. Como sabemos qual é a relação desejada do prompt, o sistema pode calcular uma perda – por exemplo, uma perda de entropia cruzada que penaliza o classificador se ele não estiver confiante na relação correta[20][22].
Agora vem a parte de direção: o gradiente dessa perda é retropropagado para a representação latente do modelo de difusão (a imagem ruidosa em progresso) naquele momento[23]. Na prática, isso significa ajustar as variáveis latentes em uma direção que deve aumentar a probabilidade da relação correta de acordo com o classificador. Intuitivamente, se o classificador achar que o cachorro não está suficientemente à direita do ursinho na imagem parcial atual, o gradiente deslocará o latente de uma forma que move as características do cachorro para a direita (ou as do ursinho para a esquerda). O processo de difusão então continua com esse latente e ruído ligeiramente ajustados. Ao aplicar iterativamente essas atualizações guiadas, a geração é "dirigida" para uma imagem que atende à instrução espacial sem nunca dizer explicitamente ao modelo onde desenhar cada objeto. É como se o modelo tivesse um treinador sussurrando durante a pintura: "mova o cachorro um pouco mais para a direita."
Um aspecto empolgante do Learn-to-Steer é que ele funciona em diferentes arquiteturas de difusão. Os autores demonstraram isso tanto no Stable Diffusion (um modelo popular baseado em UNet) quanto no Flux (um modelo de difusão baseado em MMDiT), com mudanças mínimas[24]. A abordagem é agnóstica à arquitetura porque se baseia em sinais genéricos (mapas de atenção) e um classificador separado. Isso significa que modelos de texto para imagem futuros ou alternativos poderiam potencialmente ser “conectados” ao mesmo mecanismo de controle treinando um novo classificador nas saídas de atenção desse modelo. Além disso, embora o sistema tenha sido treinado em relações de pares de objetos únicos, ele pode lidar com prompts que encadeiam múltiplas relações. Por exemplo, considere um prompt: “um sapo acima de um tênis abaixo de um bule.” Isso tem duas relações (“sapo acima do tênis” e “tênis abaixo do bule”) envolvendo três objetos. O Learn-to-Steer lida com esses casos alternando o foco de otimização entre as relações em diferentes instantes de tempo[25][26]. Ele otimizará o latente para a relação sapo-tênis em um passo, depois para a relação tênis-bule no próximo, e assim por diante de forma circular. Usando essa estratégia, o método conseguiu impor múltiplas restrições espaciais em uma única imagem, algo que funções de perda estática ou prompts ingênuos frequentemente não conseguem alcançar. (Na prática, os autores descobriram que formular um prompt de múltiplas relações de maneira encadeada simples – por exemplo, “Um sapo acima de um tênis abaixo de um bule” – produziu melhores resultados do que uma frase mais verbosa com conjunções[27].)
Quanto o Learn-to-Steer melhora a compreensão espacial em imagens geradas? O artigo relata saltos significativos em precisão nos benchmarks de avaliação de texto para imagem padrão para relações espaciais. Dois benchmarks são utilizados: GenEval (que verifica se as imagens geradas satisfazem um prompt de relação dado) e T2I-CompBench (Benchmark de Composição Texto-para-Imagem, outro teste para arranjos espaciais). A equipe avaliou quatro modelos de difusão diferentes – duas variantes do Flux e Stable Diffusion 2.1 e 1.4 – comparando a geração padrão com vários métodos. Os resultados contam uma história clara: objetivos de orientação aprendidos superam tanto os modelos não guiados quanto os métodos anteriores por uma ampla margem[28]. Alguns destaques:
Igualmente reveladores são os resultados qualitativos. Os exemplos do artigo mostram que, com o Learn-to-Steer, as imagens geradas refletem fielmente as instruções espaciais no prompt, mantendo alta qualidade de imagem[40]. Em cenários onde a difusão convencional ou outros métodos colocariam objetos de forma incorreta ou omitiriam algumas entidades, o L2S produz imagens onde os objetos estão corretamente dispostos e todos presentes. Ele também lida com pedidos incomuns de maneira eficiente – por exemplo, pode renderizar "um ônibus abaixo de uma escova de dentes" ou "um elefante abaixo de uma prancha de surfe" com a ordem espacial correta e sem as fusões bizarras que outros métodos produzem[41]. A equipe da NVIDIA aponta que seu método supera os três modos de falha comuns: corrige o deslocamento de objetos, previne negligência de entidades (todo objeto no prompt aparece na imagem) e evita fusão de objetos (não há mais híbridos surreais causados pelo modelo confundindo dois itens)[3]. Em comparações lado a lado, outras linhas de base podem omitir um vaso ou zebra de uma cena ou entrelaçá-los, enquanto as saídas do Learn-to-Steer incluem todas as peças certas na configuração correta[3]. Este aumento na fidelidade do prompt – obter exatamente o que foi solicitado, onde foi solicitado – é um grande avanço para a confiabilidade das saídas de IA generativa.
A abordagem do Learn-to-Steer de otimizar durante a inferência traz tanto vantagens quanto considerações. Do lado positivo, a otimização em tempo de teste significa que não precisamos mexer nos pesos do modelo ou realizar ajustes caros para tarefas espaciais[42]. O mesmo modelo pré-treinado pode ser “guiado” de forma flexível apenas quando necessário – preservando sua versatilidade original quando o controle espacial não é necessário[34]. Isso evita o tipo de compromisso visto com modelos ajustados que podem se especializar demais em relações espaciais em detrimento de outras habilidades (como precisão de cor ou contagem)[34]. Na abordagem da NVIDIA, se um prompt não especifica relações espaciais, pode-se simplesmente executar o modelo de difusão normalmente sem custos adicionais, mantendo a velocidade e características de saída originais. O direcionamento entra em ação apenas para prompts que o exigem[43].
No entanto, o outro lado da moeda é que, quando de fato invocamos essa perda no tempo de inferência, ela vem com um custo computacional. O processo requer rodar o classificador e retropropagar gradientes várias vezes durante a geração, o que pode desacelerar consideravelmente a síntese de imagens. Os autores mediram quanto mais lento o processo se torna: para o modelo menor Flux 1.0-schnell, a geração passou de ~0,5 segundos por imagem para ~16,5 segundos com o Learn-to-Steer – aproximadamente um desaceleramento de 33×[44]. Para o maior Flux 1.0-dev, 11 segundos se tornaram 6 minutos (~33× mais lento). O Stable Diffusion 2.1, que normalmente leva cerca de 4,5 segundos por imagem em seu hardware, subiu para ~90 segundos com ajuste (~20× mais lento)[44]. O SD1.4 teve um aumento similar (4,5s para ~80s)[44]. Esses são custos indiretos significativos. Em cenários onde velocidade e escalabilidade são cruciais (por exemplo, geração de imagens em alta capacidade ou aplicações em tempo real), aplicar a otimização no tempo de teste em cada imagem pode ser impraticável.
Existem algumas maneiras de mitigar isso. Uma delas é limitar quando e como a otimização é aplicada. O Learn-to-Steer só otimiza durante a primeira metade das etapas de difusão na sua implementação[23], o que eles consideraram suficiente para definir o curso da imagem. Além disso, como mencionado, pode ser usado seletivamente: um serviço de imagem por IA poderia gerar uma imagem normalmente, e somente se o resultado parecer espacialmente incorreto (ou se o usuário solicitar explicitamente um layout espacial rigoroso) é que executaria uma segunda passagem com o L2S ativado. Outra abordagem é melhorar a eficiência: como o classificador de relações é bastante pequeno e apenas alguns mapas de atenção estão envolvidos, a sobrecarga vem principalmente de fazer a retropropagação através do grande modelo de difusão por múltiplas etapas. Pesquisas futuras podem explorar a aceleração disso com melhores otimizadores ou atualizações parciais. No entanto, no momento, o método é mais adequado para casos em que a precisão importa mais do que a velocidade – por exemplo, gerando um diagrama ou cena precisa para um design, ou lidando com lotes relativamente pequenos de imagens onde a qualidade supera a quantidade.
Generalidade e robustez são outro aspecto dos trade-offs. O framework Learn-to-Steer mostrou-se surpreendentemente geral em diferentes arquiteturas de modelo (UNet vs MMDiT)[24], o que sugere que poderia ser aplicável a outros modelos de difusão ou sistemas futuros com mínima adaptação. O requisito é que se possa extrair atenção cruzada ou um sinal de alinhamento semelhante do modelo. Também demonstra robustez ao lidar com múltiplas relações e combinações de objetos nunca antes vistas, em virtude de como foi treinado (focando em padrões de atenção genéricos). No entanto, vale a pena notar algumas limitações. A análise do artigo aponta que o que conta como “acima” ou “abaixo” é julgado em 2D – pelos pixels da imagem e atenção – o que pode nem sempre alinhar-se com a verdadeira compreensão espacial 3D[45]. Por exemplo, se um objeto está na frente de outro no espaço 3D, de um certo ângulo de câmera pode parecer abaixo do outro na imagem 2D, confundindo a relação espacial. O Learn-to-Steer não modela explicitamente profundidade ou relações de tamanho do mundo real; ele simplesmente aprende a partir de sobreposições visuais de atenção. Assim, em cenas complexas com perspectiva, pode impor uma relação que faz sentido na projeção 2D, mas não em um sentido físico real [45]. Além disso, enquanto o método pode lidar com até três relações, sua precisão diminui à medida que as cenas ficam muito cheias[46]. Gerar uma cena perfeita com, digamos, cinco objetos, todos relativos uns aos outros, ainda é um desafio em aberto – às vezes o método tem sucesso, outras vezes não[37]. Essas limitações destacam que há espaço para melhorar, possivelmente incorporando raciocínio mais sofisticado ou planejamento em múltiplas etapas para prompts complexos.
Ao melhorar drasticamente a fidelidade espacial, o Learn-to-Steer da NVIDIA marca um passo importante em direção a sistemas multimodais mais confiáveis. Para os usuários – sejam eles artistas, designers ou desenvolvedores empresariais – ter um modelo de texto para imagem que realmente respeite as instruções espaciais significa menos frustração e correção manual. Isso nos aproxima de “o que você sugere é o que você obtém.” Essa fidelidade não é apenas sobre imagens bonitas; é sobre alinhar a saída da IA com a intenção do usuário de forma controlável. Em certo sentido, melhora o alinhamento multimodal: a modalidade textual (relações descritas em linguagem) é refletida de forma mais fiel na modalidade visual (a imagem gerada)[3]. O alinhamento aprimorado no raciocínio espacial pode também se estender a outros aspectos do prompt, uma vez que a abordagem mostra que é possível direcionar modos de falha específicos (como posicionamento de objetos) sem prejudicar outros (como cor, contagem ou coerência geral)[34]. É uma demonstração de que podemos injetar “senso comum” específico de domínio em um grande modelo generativo de maneira pós-hoc, em vez de esperar que um único modelo gigante acerte tudo desde o início.
O sucesso do uso de mapas de atenção cruzada como um sinal de ensino pode influenciar os futuros designs de modelos e regimes de treinamento. Uma implicação é que futuros modelos de difusão possam integrar módulos que monitoram ou impõem certas restrições internamente. Por exemplo, um modelo de próxima geração poderia incluir uma perda aprendida (como este classificador) como parte do seu treinamento, não apenas na inferência. Tal modelo efetivamente treinaria com um tutor que o penaliza sempre que arranja objetos incorretamente, potencialmente internalizando o raciocínio espacial de ponta a ponta. Isso poderia reduzir a necessidade de otimização no momento do teste a longo prazo. Enquanto isso, abordagens como Learn-to-Steer oferecem um kit de ferramentas versátil: elas podem ser sobrepostas a modelos existentes como uma forma de especialização pós-treinamento. Isso é atraente para casos de uso empresarial onde se pode pegar um modelo pré-treinado geral e adaptá-lo com segurança a um requisito específico (como sempre obedecer a instruções de layout) sem comprometer a integridade do modelo em outras tarefas.
Há também uma mensagem mais ampla sobre o design de perda orientado por dados. Criar manualmente uma função de perda é essencialmente adivinhar como o modelo deve se comportar, enquanto aprender uma função de perda permite que o modelo nos diga o que funciona. Aqui, ao analisar a própria atenção do modelo, os pesquisadores permitem que os dados (imagens invertidas e mapas de atenção) revelem o objetivo correto. Este princípio poderia ser aplicado a outros problemas de alinhamento generativo. Podemos ver um “controle aprendido” análogo para garantir a consistência de atributos (por exemplo, que um “cubo vermelho” saia vermelho), contagem (assegurando que um comando para cinco maçãs resulte em cinco maçãs distintas) ou até mesmo consistência de estilo em várias imagens. Cada um envolveria o treinamento de uma pequena rede nos internos do modelo para guiar um aspecto específico da geração.
Finalmente, o engenharia de prompt pode se tornar menos uma arte e mais uma ciência graças a essas técnicas. Em vez de contorcer nossos prompts de texto para persuadir um modelo a fazer o que queremos (“talvez se eu disser ‘um cachorro à extrema direita de um ursinho de pelúcia’ ele escute…”), podemos confiar em controladores aprendidos para impor a interpretação. Isso libera os usuários para especificarem o que desejam em termos diretos e confiar no sistema para lidar com o restante. Em prompts de várias partes ou cenas complexas, ter a capacidade de manter controle sobre cada relação ou detalhe significa que modelos generativos podem ser usados para tarefas mais composicionais – como redigir um storyboard, projetar o layout de uma interface de usuário ou gerar diagramas científicos – onde a precisão espacial é crucial.
Em resumo, o artigo Learn-to-Steer da NVIDIA demonstra um equilíbrio perspicaz entre aprendizado de máquina e resolução prática de problemas. Ao aproveitar o próprio conhecimento do modelo (por meio de cross-attention) e injetar um objetivo aprendido na inferência, atinge um novo nível de fidelidade de prompt para solicitações espaciais. A abordagem tem trade-offs no custo computacional, mas abre caminho para melhorias altamente direcionadas de modelos generativos sem precisar reentrená-los do zero. À medida que os modelos de difusão se tornam cada vez mais centrais na criação de conteúdo por IA, soluções como esta garantem que “detalhes menores”, como onde as coisas estão na imagem, não sejam facilmente negligenciados. É um exemplo convincente de como um pouco de inteligência adicional – na forma de uma função de perda aprendida – pode direcionar um modelo generativo massivo a patamares ainda maiores de alinhamento com a intenção humana[3][47]. O caminho à frente pode envolver a integração de tais mecanismos diretamente no treinamento de modelos ou expandi-los para novos tipos de restrições, mas uma coisa é clara: deixar que os modelos aprendam a se conduzir é uma ideia poderosa que provavelmente veremos muito mais no futuro.
[1] [4] [7] Funções de Perda Baseadas em Dados para Otimização no Tempo de Inferência na Geração de Texto para Imagem
https://learn-to-steer-paper.github.io/
[2] [3] [5] [6] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] Funções de perda baseadas em dados para otimização em tempo de inferência na geração de texto para imagem