$$\newcommand{\bra}[1]{\left<#1\right|}\newcommand{\ket}[1]{\left|#1\right>}\newcommand{\bk}[2]{\left<#1\middle|#2\right>}\newcommand{\bke}[3]{\left<#1\middle|#2\middle|#3\right>}$$
X
INFORMAÇÕES SOBRE DIREITOS AUTORAIS


As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.

A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.

A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.

A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital

Avançada


Formato DC |



Título: AVALIANDO GRANDES MODELOS DE LINGUAGEM COMPROMETIDOS ONTOLOGICAMENTE: UM EXPERIMENTO EM PREDIÇÃO DE SEPSE
Autor: LUCAS GOMES MADDALENA
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):  FERNANDA ARAUJO BAIAO AMORIM - ORIENTADOR
TIAGO PRINCE SALES - COORIENTADOR

Nº do Conteudo: 70205
Catalogação:  02/05/2025 Liberação: 28/03/2026 Idioma(s):  INGLÊS - ESTADOS UNIDOS
Tipo:  TEXTO Subtipo:  TESE
Natureza:  PUBLICAÇÃO ACADÊMICA
Nota:  Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=70205&idi=1
Referência [en]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=70205&idi=2
Referência DOI:  https://doi.org/10.17771/PUCRio.acad.70205

Resumo:
A detecção precoce e precisa de sepse durante a hospitalização é crucial, pois trata-se de uma condição com risco de vida e implicações significativas para os desfechos dos pacientes. Os Registros Eletrônicos de Saúde (EHRs) oferecem uma vasta quantidade de informações, incluindo dados textuais não estruturados, que frequentemente contêm insights mais detalhados do que os dados estruturados convencionais. Para processar esses dados textuais, uma variedade de métodos de Processamento de Linguagem Natural (NLP) tem sido empregada, embora com eficácia limitada. Avanços recentes em recursos computacionais levaram ao desenvolvimento dos Modelos Grandes de Linguagem (LLMs), capazes de processar grandes volumes de texto, identificar relações e padrões entre palavras e estruturá-los em embeddings. Isso permite que os LLMs extraiam insights significativos dentro de domínios específicos. Apesar desses avanços, os LLMs enfrentam desafios para capturar a semântica do mundo real em textos clínicos, essencial para compreender as interconexões complexas entre os termos e garantir precisão terminológica. Este trabalho propõe um estudo de caso utilizando o Clinical KB BERT, uma abordagem para criar estruturas vetoriais, chamadas de embeddings, das notas clínicas de pacientes em UTI que incorpora informações semânticas da ontologia do Unified Medical Language System (UMLS). Ao integrar conhecimento específico do domínio proveniente do UMLS, o Clinical KB BERT busca melhorar a compreensão semântica dos dados clínicos, aprimorando o desempenho preditivo dos modelos resultantes. O presente estudo compara o Clinical KB BERT com o Clinical BERT, um modelo amplamente utilizado no domínio da saúde. Os resultados experimentais demonstram que embeddings semanticamente enriquecidos produziram um modelo mais preciso e com menor incerteza para a predição precoce de sepse. Especificamente, o modelo aumentou a Área sob a Curva Característica de Operação do Receptor (AUC-ROC) de 0,826 para 0,853, enquanto a entropia preditiva média para todo o conjunto de teste diminuiu de 0,159 para 0,142. Além disso, a redução da entropia preditiva média foi ainda mais pronunciada nos casos em que ambos os modelos fizeram previsões corretas, diminuindo de 0,148 para 0,129. Vale destacar que os impactos práticos dessas melhorias incluem uma redução substancial no número de falsos negativos (de 162 para 128, em um total de 227 casos de sepse), enfatizando a capacidade do modelo semanticamente consciente de reduzir diagnósticos precoces perdidos e melhorar os desfechos dos pacientes.

Descrição Arquivo
NA ÍNTEGRA  PDF
Logo maxwell Agora você pode usar seu login do SAU no Maxwell!!
Fechar Janela



* Esqueceu a senha:
Senha SAU, clique aqui