Maxwell Para Simples Indexação

Título
[en] ALGORITHMS FOR PARTIAL LEAST SQUARES REGRESSION

Título
[pt] ALGORITMOS PARA REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS

Autor
[pt] RAUL PIERRE RENTERIA

Vocabulário
[pt] REGRESSAO NAO LINEAR

Vocabulário
[pt] MULTI-KERNEL

Vocabulário
[pt] MINIMOS QUADRADOS PARCIAIS

Vocabulário
[pt] PARALELISMO

Vocabulário
[en] NONLINEAR REGRESSION

Vocabulário
[en] MULTI-KERNEL

Vocabulário
[en] PARTIAL LEAST SQUARES

Vocabulário
[en] PARALLELISM

Resumo
[pt] Muitos problemas da área de aprendizagem automática tem por objetivo modelar a complexa relação existente num sisitema , entre variáveis de entrada X e de saída Y na ausência de um modelo teórico. A regressão por mínimos quadrados parciais PLS ( Partial Least Squares) constitui um método linear para resolução deste tipo de problema , voltado para o caso de um grande número de variáveis de entrada quando comparado com número de amostras. Nesta tese , apresentamos uma variante do algoritmo clássico PLS para o tratamento de grandes conjuntos de dados , mantendo um bom poder preditivo. Dentre os principais resultados destacamos um versão paralela PPLS (Parallel PLS ) exata para o caso de apenas um variável de saída e um versão rápida e aproximada DPLS (DIRECT PLS) para o caso de mais de uma variável de saída. Por outro lado ,apresentamos também variantes para o aumento da qualidade de predição graças à formulação não linear. São elas o LPLS ( Lifted PLS ), algoritmo para o caso de apenas uma variável de saída, baseado na teoria de funções de núcleo ( kernel functions ), uma formulação kernel para o DPLS e um algoritmo multi-kernel MKPLS capaz de uma modelagemmais compacta e maior poder preditivo, graças ao uso de vários núcleos na geração do modelo.

Resumo
[en] The purpose of many problems in the machine learning field isto model the complex relationship in a system between the input X and output Y variables when no theoretical model is available. The Partial Least Squares (PLS)is one linear method for this kind of problem, for the case of many input variables when compared to the number of samples. In this thesis we present versions of the classical PLS algorithm designed for large data sets while keeping a good predictive power. Among the main results we highlight PPLS (Parallel PLS), a parallel version for the case of only one output variable, and DPLS ( Direct PLS), a fast and approximate version, for the case fo more than one output variable. On the other hand, we also present some variants of the regression algorithm that can enhance the predictive quality based on a non -linear formulation. We indroduce LPLS (Lifted PLS), for the case of only one dependent variable based on the theory of kernel functions, KDPLS, a non-linear formulation for DPLS, and MKPLS, a multi-kernel algorithm that can result in a more compact model and a better prediction quality, thankas to the use of several kernels for the model bulding.

Orientador(es)
RUY LUIZ MILIDIU

Banca
CARLOS EDUARDO PEDREIRA

Banca
CARLOS JOSE PEREIRA DE LUCENA

Banca
VALMIR CARNEIRO BARBOSA

Banca
RUY LUIZ MILIDIU

Banca
EDUARDO SANY LABER

Banca
FERNANDO ANTONIO DE CARVALHO GOMES

Banca
LUIZ PEREIRA CALOBA

Catalogação
2004-01-08

Apresentação
2003-03-19

Tipo
[pt] TEXTO

Formato
application/pdf

Formato
application/pdf

Formato
application/pdf

Formato
application/pdf

Formato
application/pdf

Formato
application/pdf

Formato
application/pdf

Formato
application/pdf

Idioma(s)
PORTUGUÊS

Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=4362@1

Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=4362@2

Referência DOI
https://doi.org/10.17771/PUCRio.acad.4362


Arquivos do conteúdo
CAPA, AGRADECIMENTOS, RESUMO, ABSTRACT, SUMÁRIO E LISTAS PDF
CAPÍTULO 1 PDF
CAPÍTULO 2 PDF
CAPÍTULO 3 PDF
CAPÍTULO 4 PDF
CAPÍTULO 5 PDF
CAPÍTULO 6 PDF
REFERÊNCIAS BIBLIOGRÁFICAS PDF