$$\newcommand{\bra}[1]{\left<#1\right|}\newcommand{\ket}[1]{\left|#1\right>}\newcommand{\bk}[2]{\left<#1\middle|#2\right>}\newcommand{\bke}[3]{\left<#1\middle|#2\middle|#3\right>}$$
X
INFORMAÇÕES SOBRE DIREITOS AUTORAIS


As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.

A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.

A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.

A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital

Avançada


Formato DC |



Título: ONLINE TRAINING OF NEURAL METWORKS: METHODOLOGY FOR TIME VARYING ENVIRONMENTS
Autor: NITZI MESQUITA ROEHL
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):  CARLOS EDUARDO PEDREIRA - ADVISOR
Nº do Conteudo: 8593
Catalogação:  26/06/2006 Idioma(s):  PORTUGUESE - BRAZIL
Tipo:  TEXT Subtipo:  THESIS
Natureza:  SCHOLARLY PUBLICATION
Nota:  Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=8593@1
Referência [en]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=8593@2
Referência DOI:  https://doi.org/10.17771/PUCRio.acad.8593

Resumo:
The main issue when dealing with non-stationary processes is related to the requirement of fast adaptation while simultaneously preventing catastrophic damage to previously learned behavior. In this thesis, two on-line learning techniques, one for supervised and the other for unsupervised artificial neural networks, are proposed. A new supervised procedure to continuously adjust weights in a multi layered perceptrons neural networks is proposed. This methodology is tailored to be used in time varying (or non-stationary) models, eliminating the necessity of retraining. The main objective is to keep the error related to the latest income data within a pre established tolerance, while maximizing the information incorporated up to that point. By choosing a balance parameter, the designer is able to decide on the relevance that should be attributed to the new data. Non-linear programming techniques are used in order to properly solve this trade off optimization problem and on-line calculate the new weight set. Numerical results for real and non- real data are presented, illustrating the potentiality and properties of the proposed approach. A modular Fuzzy ART model for hierarchical categorization of data is proposed in such a manner that each module groups the prototypes of the categories developed in the previous module or layer. In this way, the hierarchical levels of successively higher layers learn a more general pattern from the input data while the lower layers learn more specific categories. Interesting properties of the component Fuzzy ART network also apply to this new hierarchical network model like, fast and stable learning of arbitrary sequences of analogical or binary input patterns and the dynamic creation of categories for new input patterns presentation. Some theoretical results related to properties of this new approach for clustering applications are presented, as well as some illustrative numerical results.

Descrição Arquivo
COVER, ACKNOWLEDGEMENTS, RESUMO, ABSTRACT, SUMMARY AND LISTS  PDF  
CHAPTER 1  PDF  
CHAPTER 2  PDF  
CHAPTER 3  PDF  
CHAPTER 4  PDF  
APPENDIX  PDF  
REFERENCES  PDF  
Logo maxwell Agora você pode usar seu login do SAU no Maxwell!!
Fechar Janela



* Esqueceu a senha:
Senha SAU, clique aqui
Senha Maxwell, clique aqui