$$\newcommand{\bra}[1]{\left<#1\right|}\newcommand{\ket}[1]{\left|#1\right>}\newcommand{\bk}[2]{\left<#1\middle|#2\right>}\newcommand{\bke}[3]{\left<#1\middle|#2\middle|#3\right>}$$
X
INFORMAÇÕES SOBRE DIREITOS AUTORAIS


As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.

A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.

A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.

A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital

Avançada


Formato DC |



Título: TREINAMENTO CONTÍNUO EM REDES NEURAIS: UM TRATAMENTO PARA AMBIENTES VARIANTES NO TEMPO
Autor: NITZI MESQUITA ROEHL
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):  CARLOS EDUARDO PEDREIRA - ORIENTADOR
Nº do Conteudo: 8593
Catalogação:  26/06/2006 Idioma(s):  PORTUGUÊS - BRASIL
Tipo:  TEXTO Subtipo:  TESE
Natureza:  PUBLICAÇÃO ACADÊMICA
Nota:  Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=8593@1
Referência [en]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=8593@2
Referência DOI:  https://doi.org/10.17771/PUCRio.acad.8593

Resumo:
Lidar com processos não estacionários requer adaptação rápida e, simultaneamente, evitar esquecimento catastrófico de um comportamento passado. Duas técnicas de treinamento em redes neurais que satisfazem este requerimento são propostas, uma no âmbito de aprendizado com supervisão e outra relacionada à classe de redes não supervisionadas. Um novo algoritmo de treinamento supervisionada em redes multi camadas para modelagem de sistemas num contexto não estacionário é proposto. O ajuste de pesos na rede é determinado pela solução de problema de compromisso entre manter a performance para os dados antigos de treinamento e se ajustar para um novo comportamento representado nos dados mais recentes. Esta abordagem tem por base a formalização do problema como a minimização do erro de saída da rede sobre os padrões entrada-saída passados, sujeita a restrição de codificação do novo padrão dentro da tolerância estabelecida. Técnicas de programação não linear são utilizadas para resolver o problema de otimização gerado e calcular o novo conjunto de pesos. Alguns experimentos numéricos que comparam a performance do algoritmo proposto a de uma rede backpropagation são oferecidos. Um modelo de redes Fuzzy ART modulares para formação de categorias com hierarquia é também proposto, de tal forma que cada módulo agrupa os protótipos das categorias desenvolvidas na camada anterior. Dessa forma, os níveis hierárquicos sucessivamente mais altos captam uma visualização mais geral dos padrões de entrada enquanto os níveis inferiores aprendem categorias mais especificas. Propriedades interessantes da rede Fuzzy são herdadas pelo modelo proposto. Resultados teóricos relacionados às propriedades desta nova abordagem são apresentados, bem como experimentos numéricos que comprovam e ilustram as mesmas.

Descrição Arquivo
CAPA, AGRADECIMENTOS, RESUMO, ABSTRACT, SUMÁRIO E LISTAS  PDF  
CAPÍTULO 1  PDF  
CAPÍTULO 2  PDF  
CAPÍTULO 3  PDF  
CAPÍTULO 4  PDF  
APÊNDICE  PDF  
REFERÊNCIAS BIBLIOGRÁFICAS  PDF  
Logo maxwell Agora você pode usar seu login do SAU no Maxwell!!
Fechar Janela



* Esqueceu a senha:
Senha SAU, clique aqui
Senha Maxwell, clique aqui