Título: | PRODUZINDO E AVALIANDO REPRESENTAÇÕES VISUAIS PARA UMA EFICAZ INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL | ||||||||||||
Autor: |
BIANCA MOREIRA CUNHA |
||||||||||||
Colaborador(es): |
SIMONE DINIZ JUNQUEIRA BARBOSA - Orientador |
||||||||||||
Catalogação: | 23/JUL/2025 | Língua(s): | INGLÊS - ESTADOS UNIDOS |
||||||||||
Tipo: | TEXTO | Subtipo: | TESE | ||||||||||
Notas: |
[pt] Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio. [en] All data contained in the documents are the sole responsibility of the authors. The data used in the descriptions of the documents are in conformity with the systems of the administration of PUC-Rio. |
||||||||||||
Referência(s): |
[pt] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/ETDs/consultas/conteudo.php?strSecao=resultado&nrSeq=71825&idi=1 [en] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/ETDs/consultas/conteudo.php?strSecao=resultado&nrSeq=71825&idi=2 |
||||||||||||
DOI: | https://doi.org/10.17771/PUCRio.acad.71825 | ||||||||||||
Resumo: | |||||||||||||
O uso de modelos de Aprendizado de Máquina (ML) em diversos domínios tem crescido exponcialmente nos últimos anos. Esses modelos realizam
tarefas críticas que abrangem por exemplo diagnósticos médicos, sentenças criminais e aprovações de empréstimo. Para permitir que usuários compreendam
a lógica por trás das predições e gerar confiança, esses modelos deveriam ser
interpretáveis. Igualmente vital é a capacidade de desenvolvedores de localizar
e corrigir quaisquer comportamentos errôneos. Neste contexto surge o campo
de Inteligência Artificial Explicável (XAI), que visa desenvolver métodos para
tornar modelos de ML mais interpretáveis, enquanto mantém seu nível de
performance. Diversos métodos foram propostos, muitos aproveitando-se de
explicações visuais para elucidar o comportamento do modelo. Porém, uma
lacuna notável permanece: a ausência de uma avaliação rigorosa em relação
à eficácia dessas explicações em melhorar a interpretabilidade. Resultados anteriores mostraram que visualizações apresentadas por estes métodos podem
ser confusos mesmo para usuários que têm um histórico matemático e que há
a necessidade para pesquisadores de XAI trabalharem colaborativamente com
especialistas de Visualização da Informação, além de testar as visualizações
com usuários com bases diversas. Um dos métodos de XAI mais utilizados
recentemente é o método SHAP, cujas representações visuais não tiveram a sua
eficácia avaliada anteriomente. Por conta disso, nós desenvolvemos um estudo
onde trabalhamos em conjunto com pesquisadores de visualização e desenvolvemos viusalizações baseadas nas informações que o método SHAP fornece,
tendo em mente fatores considerados na literatura como características que geram eficácia a uma explicação. Avaliamos estas visualizações com pessoas com
diversos históricos com o objetivo de avaliar se as visualizações são eficazes
em melhorar o seu entendimento do modelo. Com os resultados deste estudo,
promomos uma abordagem para produzir e avaliar representações visuais de
explicações tendo como objetivo a sua eficácia.
|
|||||||||||||
|