Maxwell Para Simples Indexação

Título
[pt] APRENDIZAGEM EM GRAFOS VIA MEDIDAS DE DIVERGÊNCIA GENERALIZADAS

Título
[en] LEARNING ON GRAPHS VIA GENERALIZED DIVERGENCE MEASURES

Autor
[pt] KLEYTON VIEIRA SALES DA COSTA

Vocabulário
[pt] AUTOENCODERS VARIACIONAIS

Vocabulário
[pt] GENERALIZACAO PARA MEDIDAS DE DIVERGENCIA

Vocabulário
[pt] INFERENCIA APROXIMADA

Vocabulário
[pt] APRENDIZADO NAO SUPERVISIONADO EM GRAFOS

Vocabulário
[en] VARIATIONAL AUTOENCODERS

Vocabulário
[en] GENERALIZED DIVERGENCE MEASURE

Vocabulário
[en] APPROXIMATED INFERENCE

Vocabulário
[en] UNSUPERVISED LEARNING ON GRAPHS

Resumo
[pt] Esta dissertação de mestrado investiga a efetividade de generalizações de medidas de informação para aprendizado em grafos. Para delimitar o escopo de pesquisa, a função de custo do variational graph autoeconders proposto por Kipf and Welling (2016b) foi modificada por meio da incorporação de generalizações de medidas de divergência. Dessa maneira, as principais contribuições deste trabalho são: (i) κappa-divergências - uma representação unificada para generalizações de medidas de divergência; (ii) duas novas famílias de divergências, delta e eta; e (iii) o desenvolvimento do generalized variational graph autoencoders (GGVA), um arcabouço de variational graph autoencoders baseado em κ-divergências. Os experimentos realizados em tarefas de aprendizado em grafos, utilizando cinco conjuntos de dados de redes de citação e um conjunto de dados para a rede de distribuição de energia elétrica do Brasil, indicam que o GGVA supera os modelos de referência em dois tipos de tarefas: classificação de nós e previsão de relacionamentos, considerando tempo de execução e precisão média. Os resultados qualitativos para os embeddings treinados do GGVA indicam uma capacidade satisfatória para distinguir classes.

Resumo
[en] This master dissertation investigates the effectiveness of generalized information measures for learning on graphs (LoG). The variational graph autoencoders framework proposed by Kipf and Welling (2016b) was modified by generalized divergence measures as part of the learning objective to delimit the research scope. Then, the main contributions of this work are: (i) the kappa-divergences - a unified representation for generalized divergence measures; (ii) two novel families of divergences, delta and eta; and (iii) the generalized graph variational autoencoders (GGVA) - a variational graph autoencoders framework based on κ-divergences. The experiments on LoG, using five citation network datasets and a Brazilian power grid network dataset, indicate that GGVA outperforms baseline models in node classification and link prediction, considering time efficiency and average precision. The qualitative analysis of the learned embeddings of GGVA indicates a good enough capacity to distinguish classes.

Orientador(es)
HELIO CORTES VIEIRA LOPES

Coorientador(es)
IVAN FABIO MOTA DE MENEZES

Banca
HELIO CORTES VIEIRA LOPES

Banca
MARCUS VINICIUS SOLEDADE POGGI DE ARAGAO

Banca
IVAN FABIO MOTA DE MENEZES

Banca
GEORGES MIRANDA SPYRIDES

Banca
BERNARDO ANDRADE LYRIO MODENESI

Catalogação
2025-07-09

Apresentação
2025-04-10

Tipo
[pt] TEXTO

Formato
application/pdf

Idioma(s)
INGLÊS

Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71470@1

Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71470@2

Referência DOI
https://doi.org/10.17771/PUCRio.acad.71470


Arquivos do conteúdo
NA ÍNTEGRA PDF