Limitazioni di Vertex Explainable AI

Quando esamini le spiegazioni restituite dal servizio, tieni presente queste limitazioni generali.

Significato e ambito delle attribuzioni di funzionalità

Tieni presente quanto segue quando analizzi le attribuzioni delle caratteristiche fornite da Vertex Explainable AI:

  • Ogni attribuzione mostra solo in che misura la funzionalità ha influito sulla previsione per quell'esempio specifico. Una singola attribuzione potrebbe non riflettere il comportamento complessivo del modello. Per comprendere il comportamento approssimativo del modello su un intero set di dati, aggrega le attribuzioni sull'intero set di dati.
  • Le attribuzioni dipendono interamente dal modello e dai dati utilizzati per addestrare il modello. Possono rivelare solo i pattern che il modello ha trovato nei dati e non possono rilevare alcuna relazione fondamentale nei dati. La presenza o l'assenza di un'attribuzione forte a una determinata funzionalità non significa che esista o meno una relazione tra questa funzionalità e il target. L'attribuzione mostra semplicemente se il modello utilizza o meno la funzionalità nelle sue previsioni.
  • Le attribuzioni da sole non possono indicare se il modello è equo, imparziale o di buona qualità. Valuta attentamente i dati di addestramento e le metriche di valutazione, oltre alle attribuzioni.

Miglioramento delle attribuzioni di funzionalità

Quando lavori con modelli addestrati personalizzati, puoi configurare parametri specifici per migliorare le spiegazioni. Questa sezione non si applica ai modelli AutoML.

I seguenti fattori hanno il maggiore impatto sulle attribuzioni delle funzionalità:

  • I metodi di attribuzione approssimano il valore di Shapley. Puoi aumentare la precisione dell'approssimazione:

    • Aumentando il numero di passaggi per l'integrale per i metodi dei gradienti integrati o XRAI.
    • Aumenta il numero di percorsi integrali per il metodo Shapley campionato.

    Di conseguenza, le attribuzioni potrebbero cambiare radicalmente.

  • Le attribuzioni esprimono solo l'impatto della funzionalità sulla variazione del valore di previsione rispetto al valore di base. Assicurati di scegliere una baseline significativa, pertinente alla domanda che poni al modello. I valori di attribuzione e la loro interpretazione potrebbero cambiare in modo significativo quando cambi le baseline.

  • Per i gradienti integrati e XRAI, l'utilizzo di due baseline può migliorare i risultati. Ad esempio, puoi specificare baseline che rappresentano un'immagine completamente nera e un'immagine completamente bianca.

Scopri di più su come migliorare le attribuzioni delle funzionalità.

Limitazioni per i dati delle immagini

I due metodi di attribuzione che supportano i dati delle immagini sono gradienti integrati e XRAI.

I gradienti integrati sono un metodo di attribuzione basato sui pixel che evidenzia le aree importanti dell'immagine a prescindere dal contrasto, rendendo questo metodo ideale per immagini non naturali, come quelle a raggi X. Tuttavia, l'output granulare può rendere difficile valutare l'importanza relativa delle aree. L'output predefinito evidenzia le aree dell'immagine con attribuzioni positive elevate disegnando contorni, ma questi contorni non sono classificati e possono estendersi su più oggetti.

XRAI funziona meglio con le immagini naturali ad alto contrasto contenenti più oggetti. Poiché questo metodo produce attribuzioni basate sulle regioni, genera una mappa termica più uniforme e più leggibile delle regioni più importanti per una determinata classificazione delle immagini.

XRAI non funziona bene con i seguenti tipi di input di immagini:

  • Immagini a basso contrasto di un'unica tonalità, come le radiografie.
  • Immagini molto alte o molto larghe, come le panoramiche.
  • Immagini molto grandi, che potrebbero rallentare il tempo di esecuzione complessivo.