Título: | NOVOS MODELOS NEURO-FUZZY HIERÁRQUICOS COM APRENDIZADO POR REFORÇO PARA AGENTES INTELIGENTES | |||||||
Autor: |
KARLA TEREZA FIGUEIREDO LEITE |
|||||||
Colaborador(es): |
MARLEY MARIA BERNARDES REBUZZI VELLASCO - Orientador MARCO AURELIO CAVALCANTI PACHECO - Orientador FLAVIO JOAQUIM DE SOUZA - Coorientador |
|||||||
Catalogação: | 21/JUL/2003 | Língua(s): | PORTUGUÊS - BRASIL |
|||||
Tipo: | TEXTO | Subtipo: | TESE | |||||
Notas: |
[pt] Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio. [en] All data contained in the documents are the sole responsibility of the authors. The data used in the descriptions of the documents are in conformity with the systems of the administration of PUC-Rio. |
|||||||
Referência(s): |
[pt] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/ETDs/consultas/conteudo.php?strSecao=resultado&nrSeq=3729&idi=1 [en] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/ETDs/consultas/conteudo.php?strSecao=resultado&nrSeq=3729&idi=2 |
|||||||
DOI: | https://doi.org/10.17771/PUCRio.acad.3729 | |||||||
Resumo: | ||||||||
Esta tese investiga modelos híbridos neuro-fuzzy para
aprendizado automático de ações efetuadas por agentes. O
objetivo dos modelos é dotar um agente de inteligência,
tornando-o capaz de, através da interação com o seu
ambiente, adquirir e armazenar o conhecimento e raciocinar
(inferir uma ação). O aprendizado desses modelos é
realizado através de processo não-supervisionado denominado
Aprendizado por Reforço (RL: Reinforcement Learning). Esta
nova proposta de modelos neuro-fuzzy apresenta as seguintes
características: aprendizado automático da estrutura do
modelo; auto-ajuste dos parâmetros associados à estrutura;
capacidade de aprender a ação a ser tomada quando o agente
está em um determinado estado do ambiente; possibilidade de
lidar com um número maior de entradas do que os sistemas
neuro-fuzzy tradicionais; e geração de regras lingüísticas
com hierarquia.
O trabalho envolveu três etapas principais: levantamento
bibliográfico e estudo de modelos de aprendizado; definição
e implementação de dois novos modelos neuro-fuzzy
hierárquicos baseados em RL; e estudo de casos.
O levantamento bibliográfico e o estudo de modelos de
aprendizado foi feito a partir dos modelos usados em
agentes (com o objetivo de ampliar a ação autônoma) e em
espaço de estados grande e/ou contínuo.
A definição dos dois novos modelos neuro-fuzzy foi motivada
pela importância de se estender a capacidade autônoma de
agentes através do quesito inteligência, em particular a
capacidade de aprendizado. Os modelos foram concebidos a
partir do estudo das limitações existentes nos modelos
atuais e das características desejáveis para sistemas de
aprendizado baseados em RL, em particular quando aplicados
a ambientes contínuos e/ou ambientes considerados de grande
dimensão. Tais ambientes apresentam uma característica
denominada curse of dimensionality que inviabiliza a
aplicação direta de métodos tradicionais de RL. Assim
sendo, a decisão de se usar uma metodologia de
particionamento recursivo, já explorada com excelentes
resultados em Souza (1999), que reduz significativamente as
limitações dos sistemas neuro-fuzzy existentes, foi de
fundamental importância para este trabalho. Optou-se pelos
particionamentos BSP e Quadtree/Politree, gerando os dois
modelos RL-NFHB (Reinforcement Learning - Neuro-Fuzzy
Hierárquico BSP) e RL-NFHP (Reinforcement Learning
- Neuro-Fuzzy Hierárquico Politree). Estes dois novos
modelos são derivados dos modelos neuro-fuzzy hierárquicos
NFHB e NFHQ (Souza, 1999) que utilizam aprendizado
supervisionado. Com o uso desses métodos de particionamento,
associados ao Reinforcement Learning, obteve-se uma nova
classe de Sistemas Neuro-Fuzzy (SNF) que executam, além do
aprendizado da estrutura, o aprendizado autônomo das ações
a serem tomadas por um agente. Essas características
representam um importante diferencial em relação aos
sistemas de aprendizado de agentes inteligentes existentes.
No estudo de casos, os dois modelos foram testados em 3
aplicações benckmark e uma aplicação em robótica. As
aplicações benchmark são referentes a 3 problemas de
sistemas de controle: o carro na montanha (mountain cart
problem), estacionamento do carro (cart-centering problem)
e o pêndulo invertido. A aplicação em robótica utilizou o
modelo Khepera. A implementação dos modelos RL-NFHB e RL-
NFHP foi feita em linguagem Java em microcomputadores com
plataforma Windows 2000.
Os testes efetuados demonstram que estes novos modelos se
ajustam bem a problemas de sistemas de controle e robótica,
apresentando boa generalização e gerando sua própria
estrutura hierárquica de regras com interpretação
lingüística.
Além disso, o aprendizado automático do ambiente dota o
agente de inteligência - (base de conhecimento, raciocínio
e aprendizado), característica que aumenta a capacidade
autônoma deste agente. A área de sistemas neuro-fuzzy
hie
|
||||||||