Título
[en] EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR MEDICAL IMAGE CLASSIFIERS
Título
[pt] INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL PARA CLASSIFICADORES DE IMAGENS MÉDICAS
Autor
[pt] IAM PALATNIK DE SOUSA
Vocabulário
[pt] CLASSIFICACAO
Vocabulário
[pt] IMAGEAMENTO MEDICO
Vocabulário
[pt] COVID-19
Vocabulário
[pt] INTELIGENCIA ARTIFICIAL EXPLICAVEL
Vocabulário
[pt] APRENDIZADO PROFUNDO
Vocabulário
[pt] VISAO COMPUTACIONAL
Vocabulário
[en] CLASSIFICATION
Vocabulário
[en] MEDICAL IMAGING
Vocabulário
[en] COVID-19
Vocabulário
[en] EXPLAINABLE AI
Vocabulário
[en] DEEP LEARNING
Vocabulário
[en] COMPUTER VISION
Resumo
[pt] A inteligência artificial tem gerado resultados promissores na área médica, especialmente na última década. Contudo, os modelos de melhor desempenho apresentam opacidade em relação ao seu funcionamento interno. Nesta tese, são apresentadas novas metodologias e abordagens para o desenvolvimento de classificadores explicáveis de imagens médicas. Dois principais métodos, Squaregrid e EvEx, foram desenvolvidos. O primeiro consiste em uma geração mais grosseira, porém rápida, de heatmaps explicativos via segmentações em grades quadrados, enquanto o segundo baseia-se em otimização multi-objetivo, baseada em computação evolucionária, visando ao ajuste fino de parâmetros de segmentação. Notavelmente, ambas as técnicas são agnósticas ao modelo, o que facilita sua utilização para qualquer tipo de classificador de imagens. O potencial destas abordagens foi avaliado em três estudos de
caso de classificações médicas: metástases em linfonodos, malária e COVID-19. Para alguns destes casos foram analisados modelos de classificação existentes, publicamente disponíveis. Por outro lado, em outros estudos de caso, novos modelos tiveram que ser treinados. No caso do estudo de COVID-19,
a ResNet50 treinada levou a F-scores acima de 0,9 para o conjunto de teste de uma competição para classificação de coronavirus, levando ao terceiro lugar geral. Adicionalmente, técnicas de inteligência artificial já existentes como LIME e GradCAM, bem como Vanilla, Smooth e Integrated Gradients também
foram usadas para gerar heatmaps e possibilitar comparações. Os resultados aqui descritos ajudaram a demonstrar e preencher parcialmente lacunas associadas à integração das áreas de inteligência artificial explicável e medicina. Eles também ajudaram a demonstrar que as diferentes abordagens de inteligência
artificial explicável podem gerar heatmaps que focam em características diferentes da imagem. Isso por sua vez demonstra a importância de combinar abordagens para criar um panorama mais completo sobre os modelos classificadores, bem como extrair informações sobre o que estes aprendem.
Resumo
[en] Artificial Intelligence has generated promissing results for the medical
area, especially on the last decade. However, the best performing models
present opacity when it comes to their internal working. In this thesis, methodologies
and approaches are presented for the develpoment of explainable classifiers
of medical images. Two main methods, Squaregrid and EvEx, were developed.
The first consistts in a rough, but fast, generation of heatmaps via
segmentations in square grids, and the second in genetic multi objective optimizations
aiming at the fine-tuning of segmentation parameters. Notably, both
techniques are agnostic to the model,which facilitates their utilization for any
kind of image classifier. The potential of these approaches was demonstrated in
three case studies of medical classifications: lymph node mestastases, malária
and COVID-19. In some of these cases, already existing classifier models were
analyzed, while in some others new models were trained. For the COVID-19
study, the trained ResNet50 provided F-scores above 0.9 in a test set from a
coronavirus classification competition, resulting in the third place overall. Additionally,
already existing explainable artificial intelligence techniques, such
as LIME and GradCAM, as well as Vanilla, Smooth and Integrated Gradients,
were also used to generate heatmaps and enable comparisons. The results here
described help to demonstrate and improve the gaps in integrating the areas of
explainable artificial intelligence and medicine. They also aided in demonstrating
that the different types of approaches in explainable artificial intelligence
can generate heatmaps that focus on different characteristics of the image.
This shows the importance of combining approaches to create a more complete
overview of classifier models, as well as extracting informations about
what they learned from data.
Orientador(es)
EDUARDO COSTA DA SILVA
Coorientador(es)
MARLEY MARIA BERNARDES REBUZZI VELLASCO
Banca
MARLEY MARIA BERNARDES REBUZZI VELLASCO
Banca
EDUARDO COSTA DA SILVA
Banca
CARLOS ROBERTO HALL BARBOSA
Banca
KARLA TEREZA FIGUEIREDO LEITE
Banca
JORGE LUIS MACHADO DO AMARAL
Banca
WOUTER CAARLS
Banca
RENATO CERCEAU
Banca
SANDRA ELIZA FONTES DE AVILA
Catalogação
2021-07-02
Apresentação
2021-03-30
Tipo
[pt] TEXTO
Formato
application/pdf
Idioma(s)
PORTUGUÊS
Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53517@1
Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53517@2
Referência DOI
https://doi.org/10.17771/PUCRio.acad.53517
Arquivos do conteúdo
NA ÍNTEGRA PDF