$$\newcommand{\bra}[1]{\left<#1\right|}\newcommand{\ket}[1]{\left|#1\right>}\newcommand{\bk}[2]{\left<#1\middle|#2\right>}\newcommand{\bke}[3]{\left<#1\middle|#2\middle|#3\right>}$$
X
INFORMAÇÕES SOBRE DIREITOS AUTORAIS


As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.

A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.

A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.

A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital

Avançada


Estatísticas | Formato DC |



Título: QUANTUM-INSPIRED NEURAL ARCHITECTURE SEARCH APPLIED TO SEMANTIC SEGMENTATION USING SYMMETRIC NETWORKS
Autor: FABIO HENRIQUE CARDOSO
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):  MARLEY MARIA BERNARDES REBUZZI VELLASCO - ADVISOR
KARLA TEREZA FIGUEIREDO LEITE - CO-ADVISOR

Nº do Conteudo: 71667
Catalogação:  17/07/2025 Liberação: 17/07/2025 Idioma(s):  ENGLISH - UNITED STATES
Tipo:  TEXT Subtipo:  THESIS
Natureza:  SCHOLARLY PUBLICATION
Nota:  Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71667&idi=1
Referência [en]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71667&idi=2
Referência DOI:  https://doi.org/10.17771/PUCRio.acad.71667

Resumo:
Deep learning has revolutionized various domains, showing great performance for several perceptual tasks, in the fields of computer vision, speech recognition, and natural language processing. However, designing optimal deep neural network (DNN) architectures often rely on expert knowledge and time-consuming trial and error approaches. Neural Architecture Search (NAS) has emerged as a promising solution, automating the design process to discover architectures that enhance performance and efficiency. This work introduces SegQSNAS, an extension of SegQNAS, designed for Q-NAS (Quantum-inspired Neural Architecture Search) in semantic segmentation, particularly within the medical imaging domain. SegQSNAS is designed to search for symmetrical U-Net-like architectures, thereby reducing the search space and eliminating the need for feasibility checks that were needed in SegQNAS. Furthermore, it enhances the search process by incorporating a two-point crossover operation in order to improve the exploitation during evolutionary process, alongside the addition of self-attention, MobileNet, and EfficientNet functions to the search space that enables the discovery of efficient, customized networks. To address inaccuracies in multi-class scenarios, the SegQNAS implementation of Dice-Sorensen Coefficient (DSC) and loss functions were corrected because it provides an overestimated DSC score in those scenarios. Experiments on medical segmentation datasets from the Medical Segmentation Decathlon challenge demonstrate that on the prostate dataset experiment, SegQSNAS performed well with the best results in DSC score, parameter count and GPU days, archiving 0.7924 in average DSC score with half million parameters. It also archive of good results on the liver dataset experiment due to the best trade-off considering that it is a limited computing resource scenario. Although, in some experiments it show some limitation of the search strategy or computational resource available. In addition, in any experiment the self-attention block was not selected in the best architecture found, and this is indicative that the predefined maximum number of nodes or the complexity of the tested problems might not have been high enough for this operation to be selected during evolution process.

Descrição Arquivo
COMPLETE  PDF
Logo maxwell Agora você pode usar seu login do SAU no Maxwell!!
Fechar Janela



* Esqueceu a senha:
Senha SAU, clique aqui
Senha Maxwell, clique aqui