Els models de variables latents moderns, com els models invertibles o els fluxos normalitzadors, són fonamentals en el panorama del modelatge generatiu a causa de la seva capacitat única d'equilibrar l'expressivitat i la manejabilitat. Aquest equilibri s'aconsegueix mitjançant una combinació de rigor matemàtic i disseny arquitectònic innovador, que permet modelar amb precisió les distribucions de dades complexes mantenint la viabilitat computacional.
Expressivitat en la normalització de fluxos
L'expressivitat en el context dels models generatius fa referència a la capacitat del model per capturar i representar distribucions de dades complexes. Els fluxos normalitzadors aconsegueixen una alta expressivitat mitjançant una sèrie de transformacions invertibles. Aquestes transformacions mapegen una distribució base simple, com ara una gaussiana multivariada, a una distribució objectiu més complexa que s'assembla a la distribució de dades.
La idea central darrere de la normalització de fluxos és que es pot obtenir una distribució complexa aplicant una seqüència de funcions invertibles i diferenciables a una distribució inicial simple. Matemàticament, si
és una variable latent extreta d'una distribució simple
i
és la variable observada, la relació entre
i
es pot expressar mitjançant una sèrie de transformacions
:
![]()
La seqüència de transformacions
està dissenyat per ser invertible, assegurant que cada transformació tingui una inversa ben definida. Aquesta invertibilitat és important tant per al mostreig com per a l'estimació de la probabilitat.
Tractabilitat en fluxos normalitzadors
La tractabilitat, d'altra banda, implica la capacitat de calcular de manera eficient la probabilitat de les dades observades i de fer mostres del model. La normalització dels fluxos garanteix la tractabilitat aprofitant la fórmula de canvi de variables en la teoria de la probabilitat, que permet calcular la funció de densitat de probabilitat de la variable transformada. Donada la transformació invertible
, la densitat de
es pot calcular com:
![]()
where
és el valor absolut del determinant de la matriu jacobiana de la transformació inversa
.
Perquè el model sigui manejable, el determinant jacobià ha de ser computable de manera eficient. Aquest requisit influeix en el disseny de les transformacions invertibles utilitzades en la normalització de fluxos. Les opcions populars inclouen capes d'acoblament afins i transformacions autoregressives, que estan dissenyades específicament per permetre un càlcul eficient del determinant jacobià.
Capes d'acoblament afins
Les capes d'acoblament afins són un element bàsic comú en la normalització dels fluxos. En una capa d'acoblament afí, la variable d'entrada
es divideix en dues parts:
i
. Aleshores la transformació es defineix com:
![]()
![]()
where
i
són les funcions d'escala i de traducció, respectivament, i
denota la multiplicació per elements. La transformació inversa és senzilla:
![]()
![]()
El jacobià d'aquesta transformació és triangular, el que fa que el seu determinant sigui fàcil de calcular com el producte dels elements diagonals:
![Presentat per QuickLaTeX.com \[ \det \left( \frac{\partial (y_1, y_2)}{\partial (x_1, x_2)} \right) = \exp \left( \sum_i s_i(x_1) \right). \]](https://eitca.org/wp-content/ql-cache/quicklatex.com-ce5bc822092e859a7bae49b46f97ed05_l3.png)
Aquest disseny garanteix que la transformació sigui alhora expressiva i manejable.
Transformacions autoregressives
Les transformacions autoregressives són un altre component clau per normalitzar els fluxos. En un model autoregressiu, la transformació de cada variable depèn de les variables anteriors de manera seqüencial. Per exemple, en un flux autoregressiu emmascarat (MAF), la transformació es defineix com:
![]()
where
i
són funcions de les variables anteriors
. La transformació inversa es defineix de la mateixa manera, i el determinant jacobià és el producte dels elements diagonals:
![]()
Les transformacions autoregressives són molt expressives perquè permeten dependències complexes entre variables, i són tractables perquè el determinant jacobià és fàcil de calcular.
Aplicacions pràctiques i exemples
Els fluxos de normalització s'han aplicat amb èxit en diversos dominis, com ara la generació d'imatges, l'estimació de la densitat i la detecció d'anomalies. Un exemple notable és el model Glow, que utilitza una sèrie de convolucions 1×1 invertibles i capes d'acoblament afins per generar imatges d'alta qualitat. Glow demostra el poder de normalitzar els fluxos a l'hora de capturar els detalls complexos d'imatges naturals mentre es manté la traçabilitat tant per al mostreig com per a l'estimació de la probabilitat.
Un altre exemple és el model RealNVP, que també utilitza capes d'acoblament afins i s'ha aplicat a tasques com la generació d'imatges i l'estimació de la densitat. El disseny de RealNVP garanteix que el model sigui expressiu i computacionalment eficient, el que el converteix en una opció popular per al modelatge generatiu.
Conclusió
Els models de variables latents moderns com els fluxos normalitzadors aconsegueixen un delicat equilibri entre l'expressivitat i la tractabilitat mitjançant l'ús de transformacions invertibles i el càlcul eficient del determinant jacobià. Aprofitant les capes d'acoblament afins i les transformacions autoregressives, aquests models poden capturar distribucions de dades complexes alhora que garanteixen que l'estimació de probabilitat i el mostreig siguin computacionalment factibles. L'èxit de models com Glow i RealNVP en diverses aplicacions posa de manifest l'eficàcia de normalitzar els fluxos en el modelatge generatiu.
Altres preguntes i respostes recents sobre Models generatius avançats:
- Quins són els principals avantatges i limitacions de l'ús de xarxes generatives adversàries (GAN) en comparació amb altres models generatius?
- Què és el truc de reparametrització i per què és crucial per a l'entrenament d'Autoencoders variacionals (VAE)?
- Com la inferència variacional facilita l'entrenament de models intractables i quins són els principals reptes associats a això?
- Quines són les diferències clau entre els models autoregressius, els models de variables latents i els models implícits com els GAN en el context del modelatge generatiu?
- Les xarxes adversàries generatives (GAN) es basen en la idea d'un generador i d'un discriminador?

