Título
[pt] APLICAÇÃO DE INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL NA GERAÇÃO DE ALERTAS ESTRUTURAIS DE TOXICIDADE E DE PERMEABILIDADE NA BARREIRA HEMATOENCEFÁLICA
Título
[en] APPLICATION OF EXPLAINABLE ARTIFICIAL INTELLIGENCE IN THE GENERATION OF STRUCTURAL ALERTS FOR TOXICITY AND BLOOD-BRAIN BARRIER PERMEABILITY
Autor
[pt] CAYQUE MONTEIRO DE CASTRO NASCIMENTO
Vocabulário
[pt] APRENDIZADO DE MAQUINA
Vocabulário
[pt] LOCAL INTERPRETABLE MODEL AGNOSTIC EXPLANATION LIME
Vocabulário
[pt] ALERTA ESTRUTURAL
Vocabulário
[en] MACHINE LEARNING
Vocabulário
[en] LOCAL INTERPRETABLE MODEL AGNOSTIC EXPLANATION LIME
Vocabulário
[en] STRUCTURAL ALERT
Resumo
[pt] Uma das ferramentas mais populares de Inteligência Artificial Explicável, o
método Local Interpretable Model-Agnostic Explanations (LIME), foi aplicada
para interpretar modelos de Aprendizado de Máquina desenvolvidos a partir de
diferentes bancos de dados: um sobre toxicidade de fármacos e outro sobre
permeabilidade de compostos orgânicos na Barreira Hematoencefálica. A
utilização do LIME permitiu a criação de alertas estruturais, isto é, a identificação
das principais subestruturas em moléculas que causam as propriedades
estudadas (toxicidade e permeabilidade). Esses alertas estruturais são uma lista
de estruturas que pode ser utilizada durante a triagem de candidatos a fármacos
em bibliotecas virtuais, possibilitando a exclusão precoce de compostos com alto
risco de insucesso antes da síntese destes compostos e dos ensaios pré-clínicos
(in vitro e in vivo) em laboratórios, agências regulatórias e indústrias. LIME
identificou fragmentos tóxicos descritos na literatura e fragmentos que podem
facilitar
a permeabilidade na Barreira Hematoencefálica, destacando
principalmente subestruturas nitrogenadas. Desta forma, a abordagem contribui
para reduzir desperdícios de tempo e recursos em sínteses e ensaios pré
clínicos, fornecendo subsídios para diferentes áreas, como química medicinal,
síntese orgânica, farmácia e toxicologia.
Resumo
[en] One of the most popular tools in Explainable Artificial Intelligence, the
method Local Interpretable Model-Agnostic Explanations (LIME) was applied to
interpret machine learning models developed from different datasets: one
addressing drug toxicity and the other focusing on the permeability of organic
compounds across the Blood–Brain Barrier. The use of LIME enabled the
generation of structural alerts, that is, the identification of key molecular
substructures responsible for the studied properties (toxicity and permeability).
These structural alerts constitute a list of chemical fragments that may be used
during the virtual screening of drug candidates, allowing the early exclusion of
compounds with a high risk of failure before the synthesis of these compounds
and preclinical essays (in vitro and in vivo) in laboratories, regulatory agencies
and industries. LIME identified toxic fragments described in the literature and
fragments that can facilitate permeability in the Blood-Brain Barrier, highlighting
mainly nitrogenous substructures. In this way, the approach contributes to
reducing waste of time and resources in synthesis and pre-clinical assays, while
providing valuable insights for different fields such as medicinal chemistry,
organic synthesis, pharmacy, and toxicology.
Orientador(es)
ANDRE SILVA PIMENTEL
Banca
ANDRE SILVA PIMENTEL
Banca
NICOLAS ADRIAN REY
Banca
FERNANDO DE CARVALHO DA SILVA
Banca
LUCIANO TAVARES DA COSTA
Banca
CAMILO HENRIQUE DA SILVA LIMA
Catalogação
2026-03-03
Apresentação
2025-11-03
Tipo
[pt] TEXTO
Formato
application/pdf
Idioma(s)
PORTUGUÊS
Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=75571@1
Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=75571@2
Referência DOI
https://doi.org/10.17771/PUCRio.acad.75571
Arquivos do conteúdo
NA ÍNTEGRA PDF