Ao considerar as explicações devolvidas pelo serviço, deve ter em atenção estas limitações de alto nível. Para uma explicação detalhada, consulte o documento técnico sobre as explicações de IA.
Significado e âmbito das atribuições de funcionalidades
Tenha em consideração o seguinte ao analisar as atribuições de funcionalidades fornecidas pela IA explicável do Vertex:
- Cada atribuição mostra apenas o quanto a funcionalidade afetou a previsão para esse exemplo específico. Uma única atribuição pode não refletir o comportamento geral do modelo. Para compreender o comportamento aproximado do modelo num conjunto de dados completo, agregue as atribuições no conjunto de dados completo.
- As atribuições dependem inteiramente do modelo e dos dados usados para preparar o modelo. Só podem revelar os padrões que o modelo encontrou nos dados e não conseguem detetar relações fundamentais nos dados. A presença ou a ausência de uma atribuição forte a uma determinada funcionalidade não significa que exista ou não uma relação entre essa funcionalidade e o alvo. A atribuição apenas mostra se o modelo está ou não a usar a funcionalidade nas respetivas previsões.
- As atribuições sozinhas não conseguem determinar se o seu modelo é justo, imparcial ou de boa qualidade. Avalie cuidadosamente os dados de preparação e as métricas de avaliação, além das atribuições.
Melhorar as atribuições de funcionalidades
Quando trabalha com modelos personalizados, pode configurar parâmetros específicos para melhorar as suas explicações. Esta secção não se aplica a modelos do AutoML.
Os seguintes fatores têm o maior impacto nas atribuições de funcionalidades:
Os métodos de atribuição aproximam-se do valor de Shapley. Pode aumentar a precisão da aproximação:
- Aumentar o número de passos integrais para os métodos de gradientes integrados ou XRAI.
- Aumentar o número de caminhos integrais para o método de Shapley com amostragem.
Consequentemente, as atribuições podem mudar drasticamente.
As atribuições apenas expressam o quanto a funcionalidade afetou a alteração no valor de previsão, em relação ao valor de base. Certifique-se de que escolhe uma base significativa e relevante para a pergunta que está a fazer ao modelo. Os valores de atribuição e a respetiva interpretação podem mudar significativamente quando altera as bases de referência.
Para os gradientes integrados e o XRAI, a utilização de duas referências pode melhorar os seus resultados. Por exemplo, pode especificar linhas de base que representam uma imagem totalmente preta e uma imagem totalmente branca.
Leia mais sobre como melhorar as atribuições de funcionalidades.
Limitações para dados de imagens
Os dois métodos de atribuição que suportam dados de imagens são os gradientes integrados e o XRAI.
Os gradientes integrados são um método de atribuição baseado em píxeis que realça as áreas importantes na imagem, independentemente do contraste, o que torna este método ideal para imagens não naturais, como raios X. No entanto, o resultado detalhado pode dificultar a avaliação da importância relativa das áreas. O resultado predefinido realça as áreas na imagem que têm atribuições positivas elevadas desenhando contornos, mas estes contornos não são classificados e podem abranger objetos.
O XRAI funciona melhor em imagens naturais de maior contraste que contenham vários objetos. Uma vez que este método produz atribuições baseadas em regiões, gera um mapa de calor mais uniforme e legível das regiões mais proeminentes para uma determinada classificação de imagens.
O XRAI não funciona bem nos seguintes tipos de entrada de imagens:
- Imagens de baixo contraste que são todas de um tom, como raios X.
- Imagens muito altas ou muito largas, como panoramas.
- Imagens muito grandes, o que pode tornar a execução geral mais lenta.