Maxwell Para Simples Indexação

Título
[pt] APLICAÇÃO DE INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL NA GERAÇÃO DE ALERTAS ESTRUTURAIS DE TOXICIDADE E DE PERMEABILIDADE NA BARREIRA HEMATOENCEFÁLICA

Título
[en] APPLICATION OF EXPLAINABLE ARTIFICIAL INTELLIGENCE IN THE GENERATION OF STRUCTURAL ALERTS FOR TOXICITY AND BLOOD-BRAIN BARRIER PERMEABILITY

Autor
[pt] CAYQUE MONTEIRO DE CASTRO NASCIMENTO

Vocabulário
[pt] APRENDIZADO DE MAQUINA

Vocabulário
[pt] LOCAL INTERPRETABLE MODEL AGNOSTIC EXPLANATION LIME

Vocabulário
[pt] ALERTA ESTRUTURAL

Vocabulário
[en] MACHINE LEARNING

Vocabulário
[en] LOCAL INTERPRETABLE MODEL AGNOSTIC EXPLANATION LIME

Vocabulário
[en] STRUCTURAL ALERT

Resumo
[pt] Uma das ferramentas mais populares de Inteligência Artificial Explicável, o método Local Interpretable Model-Agnostic Explanations (LIME), foi aplicada para interpretar modelos de Aprendizado de Máquina desenvolvidos a partir de diferentes bancos de dados: um sobre toxicidade de fármacos e outro sobre permeabilidade de compostos orgânicos na Barreira Hematoencefálica. A utilização do LIME permitiu a criação de alertas estruturais, isto é, a identificação das principais subestruturas em moléculas que causam as propriedades estudadas (toxicidade e permeabilidade). Esses alertas estruturais são uma lista de estruturas que pode ser utilizada durante a triagem de candidatos a fármacos em bibliotecas virtuais, possibilitando a exclusão precoce de compostos com alto risco de insucesso antes da síntese destes compostos e dos ensaios pré-clínicos (in vitro e in vivo) em laboratórios, agências regulatórias e indústrias. LIME identificou fragmentos tóxicos descritos na literatura e fragmentos que podem facilitar a permeabilidade na Barreira Hematoencefálica, destacando principalmente subestruturas nitrogenadas. Desta forma, a abordagem contribui para reduzir desperdícios de tempo e recursos em sínteses e ensaios pré clínicos, fornecendo subsídios para diferentes áreas, como química medicinal, síntese orgânica, farmácia e toxicologia.

Resumo
[en] One of the most popular tools in Explainable Artificial Intelligence, the method Local Interpretable Model-Agnostic Explanations (LIME) was applied to interpret machine learning models developed from different datasets: one addressing drug toxicity and the other focusing on the permeability of organic compounds across the Blood–Brain Barrier. The use of LIME enabled the generation of structural alerts, that is, the identification of key molecular substructures responsible for the studied properties (toxicity and permeability). These structural alerts constitute a list of chemical fragments that may be used during the virtual screening of drug candidates, allowing the early exclusion of compounds with a high risk of failure before the synthesis of these compounds and preclinical essays (in vitro and in vivo) in laboratories, regulatory agencies and industries. LIME identified toxic fragments described in the literature and fragments that can facilitate permeability in the Blood-Brain Barrier, highlighting mainly nitrogenous substructures. In this way, the approach contributes to reducing waste of time and resources in synthesis and pre-clinical assays, while providing valuable insights for different fields such as medicinal chemistry, organic synthesis, pharmacy, and toxicology.

Orientador(es)
ANDRE SILVA PIMENTEL

Banca
ANDRE SILVA PIMENTEL

Banca
NICOLAS ADRIAN REY

Banca
FERNANDO DE CARVALHO DA SILVA

Banca
LUCIANO TAVARES DA COSTA

Banca
CAMILO HENRIQUE DA SILVA LIMA

Catalogação
2026-03-03

Apresentação
2025-11-03

Tipo
[pt] TEXTO

Formato
application/pdf

Idioma(s)
PORTUGUÊS

Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=75571@1

Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=75571@2

Referência DOI
https://doi.org/10.17771/PUCRio.acad.75571


Arquivos do conteúdo
NA ÍNTEGRA PDF