$$\newcommand{\bra}[1]{\left<#1\right|}\newcommand{\ket}[1]{\left|#1\right>}\newcommand{\bk}[2]{\left<#1\middle|#2\right>}\newcommand{\bke}[3]{\left<#1\middle|#2\middle|#3\right>}$$
X
INFORMAÇÕES SOBRE DIREITOS AUTORAIS


As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.

A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.

A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.

A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital

Avançada


Estatísticas | Formato DC |



Título: PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE
Autor: BIANCA MOREIRA CUNHA
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):  SIMONE DINIZ JUNQUEIRA BARBOSA - ADVISOR
Nº do Conteudo: 71825
Catalogação:  23/07/2025 Liberação: 25/07/2025 Idioma(s):  ENGLISH - UNITED STATES
Tipo:  TEXT Subtipo:  THESIS
Natureza:  SCHOLARLY PUBLICATION
Nota:  Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=1
Referência [en]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=2
Referência DOI:  https://doi.org/10.17771/PUCRio.acad.71825

Resumo:
The employment of Machine Learning (ML) models across diverse domains has grown exponentially in recent years. These models undertake critical tasks spanning medical diagnoses, criminal sentencing, and loan approvals. To enable users to grasp the rationale behind predictions and engender trust, these models should be interpretable. Equally vital is the capability of developers to pinpoint and rectify any erroneous behaviors. In this context emerges the field of Explainable Artificial Intelligence (XAI), which aims to develop methods to make ML models more interpretable while maintaining their performance level. Various methods have been proposed, many leveraging visual explanations to elucidate model behavior. However, a notable gap remains: a lack of rigorous assessment regarding the effectiveness of these explanations in enhancing i nterpretability. Previous findings showed that the visualizations presented by these methods can be confusing even for users who have a mathematical background and that there is a need for XAI researchers to work collaboratively with Information Visualization experts to develop these visualizations, as well as test the visualizations with users of various backgrounds. One of the most used XAI methods recently is the SHAP method, whose visual representations have not had their efficacy assessed before. Therefore, we developed a study where we worked together with visualization researchers and developed visualizations based on the information that the SHAP method provides, having in mind factors that are considered in literature to engender effectiveness to an explanation. We evaluated these visualizations with people from various backgrounds in order to assess if the visualizations are efficient in improving their understanding of the model. With the results of this study we propose an approach to produce and evaluate visual representations of explanations targeting their effectiveness.

Descrição Arquivo
COMPLETE  PDF
Logo maxwell Agora você pode usar seu login do SAU no Maxwell!!
Fechar Janela



* Esqueceu a senha:
Senha SAU, clique aqui