La intel·ligència artificial explicable (XAI) és un aspecte important dels sistemes d'IA moderns, especialment en el context de xarxes neuronals profundes i estimadors d'aprenentatge automàtic. A mesura que aquests models es tornen cada cop més complexos i es despleguen en aplicacions crítiques, entendre els seus processos de presa de decisions esdevé imprescindible. Les eines i metodologies XAI tenen com a objectiu proporcionar informació sobre com els models fan prediccions, millorant així la transparència, la responsabilitat i la fiabilitat.
S'han desenvolupat diverses eines i marcs per facilitar l'explicació dels sistemes d'IA. Aquestes eines varien en els seus enfocaments, que van des de mètodes independents del model fins a tècniques específiques del model, i atenen diferents necessitats en funció de la complexitat i el tipus del model.
1. LIME (Explicacions agnòstiques del model interpretable local):
LIME és una eina popular per explicar les prediccions dels models d'aprenentatge automàtic. Funciona sota la premissa que si bé els models complexos poden ser difícils d'interpretar globalment, es poden aproximar localment amb models més simples. LIME genera explicacions pertorbant les dades d'entrada i observant els canvis en les prediccions del model. A continuació, ajusta un model interpretable, com ara una regressió lineal, a les dades pertorbades per aproximar el límit de decisió del model complex al voltant de la instància d'interès.
Per exemple, considereu una xarxa neuronal profunda entrenada per classificar imatges. LIME es pot utilitzar per explicar per què una imatge concreta es va classificar com a "gat" pertorbant la imatge (p. ex., ocluint-ne parts) i analitzant quines característiques (o píxels) influeixen més en la predicció. Aquest enfocament permet als usuaris obtenir informació sobre quins aspectes de l'entrada el model considera més importants per a la seva decisió.
2. SHAP (explicacions de l'additiu SHAPley):
SHAP aprofita els conceptes de la teoria del joc cooperatiu per proporcionar una mesura unificada de la importància de les característiques. Assigna a cada característica un valor d'importància, conegut com a valor SHAP, que representa la contribució d'aquesta característica a la predicció. Els valors SHAP tenen propietats desitjables, com ara la consistència i la precisió local, el que els converteix en una opció robusta per explicar les prediccions del model.
SHAP es pot aplicar a una àmplia gamma de models, inclosos models basats en arbres i arquitectures d'aprenentatge profund. Per exemple, en un model de puntuació de crèdit, SHAP pot ajudar a identificar quines característiques, com ara ingressos o historial de crèdit, afecten més significativament la puntuació de crèdit d'una persona. En visualitzar els valors SHAP, les parts interessades poden entendre millor el comportament del model i assegurar-se que s'alinea amb el coneixement del domini i les consideracions ètiques.
3. Explicació de l'IA de Google Cloud:
Google Cloud ofereix un conjunt d'eines i serveis destinats a millorar la interpretació dels models. Aquestes eines s'integren a les plataformes d'IA i aprenentatge automàtic de Google Cloud, proporcionant un accés perfecte a les funcions d'explicació dels models desplegats al núvol. Els components clau inclouen:
- Atribucions de funcions: Google Cloud AI Explainability proporciona atribucions de funcions que quantifiquen la contribució de cada característica a la predicció d'un model. Això s'aconsegueix mitjançant tècniques com els gradients integrats i els mètodes de ruta, que són especialment eficaços per a les xarxes neuronals.
- Eina de què passa si: Aquesta eina interactiva permet als usuaris analitzar les prediccions del model simulant els canvis a les funcions d'entrada. Els usuaris poden explorar escenaris contrafactuals, visualitzar els límits de decisió i avaluar l'equitat del model. Per exemple, l'eina Què passa si es pot utilitzar per investigar com el canvi d'edat o d'ingressos d'un client afecta el seu estat d'aprovació del préstec en un model financer.
4. Anàlisi del model TensorFlow (TFMA):
TFMA és una biblioteca de codi obert que proporciona eines per avaluar i entendre els models TensorFlow. Ofereix capacitats per a l'avaluació del model, l'anàlisi d'equitat i la interpretabilitat. TFMA pot generar informes detallats que destaquin el rendiment del model en diferents porcions de dades, ajudant a identificar possibles biaixos o àrees de millora.
Pel que fa a la interpretabilitat, TFMA admet la integració de mètodes d'atribució de característiques, permetent als usuaris visualitzar i analitzar les contribucions de característiques. Això és especialment útil per entendre com les diferents característiques d'entrada afecten les prediccions dels models i per garantir que els models es comporten com s'esperava en diferents conjunts de dades.
5. Captum:
Captum és una biblioteca PyTorch dissenyada per proporcionar interpretabilitat per als models d'aprenentatge profund. Ofereix una gamma d'algorismes, inclosos gradients integrats, DeepLIFT i propagació de la rellevància per capa, per atribuir prediccions a les característiques d'entrada. L'API flexible de Captum permet als usuaris aplicar aquests mètodes a models personalitzats de PyTorch, permetent una anàlisi detallada del comportament del model.
Per exemple, en un model de processament del llenguatge natural (NLP), Captum es pot utilitzar per determinar quines paraules d'una frase contribueixen més al sentiment previst. En visualitzar aquestes atribucions, els desenvolupadors poden obtenir informació sobre la comprensió del llenguatge del model i assegurar-se que s'alinea amb la intuïció humana.
6. Coartada:
Alibi és una biblioteca de codi obert centrada en la inspecció i interpretació de models d'aprenentatge automàtic. Proporciona una varietat de mètodes per explicar prediccions individuals, detectar instàncies adverses i avaluar la robustesa del model. Alibi admet tant enfocaments independents del model com específics del model, el que el fa versàtil per a diferents tipus de models.
Una de les característiques notables d'Alibi és la seva generació d'explicacions contrafactuals, que identifica canvis mínims a les dades d'entrada que alterarien la predicció d'un model. Aquesta capacitat és valuosa per entendre els límits de decisió del model i per desenvolupar estratègies per mitigar els resultats no desitjats.
7. ELI5:
ELI5 és una biblioteca de Python que simplifica el procés de depuració i comprensió dels models d'aprenentatge automàtic. Admet una àmplia gamma de models, inclosos scikit-learn, XGBoost i Keras, i proporciona visualitzacions intuïtives de la importància de les funcions i els camins de decisió. La integració d'ELI5 amb els quaderns Jupyter el converteix en una eina convenient per a l'exploració i l'anàlisi interactiva.
En les tasques de classificació, ELI5 es pot utilitzar per generar explicacions detallades de prediccions individuals, destacant la contribució de cada característica a la decisió del model. Això pot ser especialment útil per a la validació del model i per comunicar el comportament del model a les parts interessades no tècniques.
8. InterpretML:
InterpretML és una biblioteca de codi obert desenvolupada per Microsoft que ofereix un conjunt complet d'eines per a la interpretació de models. Proporciona models de caixes de vidre, que són intrínsecament interpretables, i explicadors de caixa negra, que es poden aplicar a qualsevol model. Els models de Glassbox, com ara Explainable Boosting Machine (EBM), estan dissenyats per ser interpretables per construcció, mentre que els explicadors de caixa negra, com SHAP i LIME, proporcionen explicacions post-hoc per a models complexos.
La versatilitat d'InterpretML el fa adequat per a una àmplia gamma d'aplicacions, des de la sanitat fins a les finances, on entendre les decisions del model és fonamental. Mitjançant l'aprofitament d'InterpretML, els professionals poden assegurar-se que els seus models no només funcionen bé, sinó que també s'adhereixen als estàndards ètics i reguladors.
9. AIX360 (AI Explainability 360):
AIX360 és un conjunt d'eines de codi obert desenvolupat per IBM que proporciona un conjunt complet d'algorismes per explicar els models d'IA. Admet explicacions tant locals com globals, oferint informació sobre prediccions individuals i comportament global del model. L'AIX360 inclou mètodes per a l'atribució de funcions, explicacions basades en regles i anàlisi contrafactual, entre d'altres.
El conjunt divers d'eines de l'AIX360 el fa adequat per a diversos casos d'ús, inclosa l'avaluació d'equitat i el compliment dels requisits reglamentaris. En proporcionar explicacions transparents i interpretables, AIX360 ajuda a generar confiança en els sistemes d'IA i facilita la seva adopció en dominis sensibles.
10. IA sense controlador H2O:
H2O Driverless AI és una plataforma automatitzada d'aprenentatge automàtic que inclou capacitats integrades per a la interpretació del model. Proporciona puntuacions d'importància de les característiques, gràfics de dependència parcial i models substitutius per explicar models complexos. H2O Driverless AI també genera informes detallats que resumeixen el rendiment del model i les mètriques d'interpretabilitat, facilitant als usuaris la comprensió i la confiança dels seus models.
Aquestes eines i marcs representen una varietat diversa d'enfocaments de l'explicabilitat, cadascun amb els seus punts forts i limitacions. En seleccionar una eina per a XAI, els professionals haurien de tenir en compte factors com el tipus de model, la complexitat de les dades i els requisits específics del domini de l'aplicació. Mitjançant l'aprofitament d'aquestes eines, els desenvolupadors i els científics de dades poden millorar la transparència i la rendició de comptes dels sistemes d'IA, fomentant, en última instància, una major confiança i acceptació de les tecnologies d'IA.
Altres preguntes i respostes recents sobre Xarxes neuronals profundes i estimadors:
- Quines són les regles generals per adoptar una estratègia i un model d'aprenentatge automàtic específics?
- Quins paràmetres indiquen que és hora de canviar d'un model lineal a un aprenentatge profund?
- Es pot interpretar l'aprenentatge profund com a definició i formació d'un model basat en una xarxa neuronal profunda (DNN)?
- El marc TensorFlow de Google permet augmentar el nivell d'abstracció en el desenvolupament de models d'aprenentatge automàtic (per exemple, amb la substitució de la codificació per la configuració)?
- És correcte que si el conjunt de dades és gran es necessita menys avaluació, la qual cosa significa que la fracció del conjunt de dades utilitzada per a l'avaluació es pot reduir amb l'augment de la mida del conjunt de dades?
- Es pot controlar fàcilment (afegint i eliminant) el nombre de capes i el nombre de nodes en capes individuals canviant la matriu subministrada com a argument ocult de la xarxa neuronal profunda (DNN)?
- Com reconèixer que el model està sobreajustat?
- Què són les xarxes neuronals i les xarxes neuronals profundes?
- Per què les xarxes neuronals profundes es diuen profundes?
- Quins són els avantatges i els desavantatges d'afegir més nodes a DNN?
Veure més preguntes i respostes a Xarxes neuronals profundes i estimadors