Título
[pt] APRENDIZAGEM EM GRAFOS VIA MEDIDAS DE DIVERGÊNCIA GENERALIZADAS
Título
[en] LEARNING ON GRAPHS VIA GENERALIZED DIVERGENCE MEASURES
Autor
[pt] KLEYTON VIEIRA SALES DA COSTA
Vocabulário
[pt] AUTOENCODERS VARIACIONAIS
Vocabulário
[pt] GENERALIZACAO PARA MEDIDAS DE DIVERGENCIA
Vocabulário
[pt] INFERENCIA APROXIMADA
Vocabulário
[pt] APRENDIZADO NAO SUPERVISIONADO EM GRAFOS
Vocabulário
[en] VARIATIONAL AUTOENCODERS
Vocabulário
[en] GENERALIZED DIVERGENCE MEASURE
Vocabulário
[en] APPROXIMATED INFERENCE
Vocabulário
[en] UNSUPERVISED LEARNING ON GRAPHS
Resumo
[pt] Esta dissertação de mestrado investiga a efetividade de generalizações de
medidas de informação para aprendizado em grafos. Para delimitar o escopo
de pesquisa, a função de custo do variational graph autoeconders proposto por
Kipf and Welling (2016b) foi modificada por meio da incorporação de generalizações de medidas de divergência. Dessa maneira, as principais contribuições
deste trabalho são: (i) κappa-divergências - uma representação unificada para generalizações de medidas de divergência; (ii) duas novas famílias de divergências,
delta e eta; e (iii) o desenvolvimento do generalized variational graph autoencoders (GGVA), um arcabouço de variational graph autoencoders baseado em
κ-divergências. Os experimentos realizados em tarefas de aprendizado em grafos, utilizando cinco conjuntos de dados de redes de citação e um conjunto de
dados para a rede de distribuição de energia elétrica do Brasil, indicam que o
GGVA supera os modelos de referência em dois tipos de tarefas: classificação
de nós e previsão de relacionamentos, considerando tempo de execução e
precisão média. Os resultados qualitativos para os embeddings treinados do GGVA
indicam uma capacidade satisfatória para distinguir classes.
Resumo
[en] This master dissertation investigates the effectiveness of generalized
information measures for learning on graphs (LoG). The variational graph
autoencoders framework proposed by Kipf and Welling (2016b) was modified
by generalized divergence measures as part of the learning objective to delimit
the research scope. Then, the main contributions of this work are: (i) the
kappa-divergences - a unified representation for generalized divergence measures;
(ii) two novel families of divergences, delta and eta; and (iii) the generalized
graph variational autoencoders (GGVA) - a variational graph autoencoders
framework based on κ-divergences. The experiments on LoG, using five citation
network datasets and a Brazilian power grid network dataset, indicate that
GGVA outperforms baseline models in node classification and link prediction,
considering time efficiency and average precision. The qualitative analysis
of the learned embeddings of GGVA indicates a good enough capacity to
distinguish classes.
Orientador(es)
HELIO CORTES VIEIRA LOPES
Coorientador(es)
IVAN FABIO MOTA DE MENEZES
Banca
HELIO CORTES VIEIRA LOPES
Banca
MARCUS VINICIUS SOLEDADE POGGI DE ARAGAO
Banca
IVAN FABIO MOTA DE MENEZES
Banca
GEORGES MIRANDA SPYRIDES
Banca
BERNARDO ANDRADE LYRIO MODENESI
Catalogação
2025-07-09
Apresentação
2025-04-10
Tipo
[pt] TEXTO
Formato
application/pdf
Idioma(s)
INGLÊS
Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71470@1
Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71470@2
Referência DOI
https://doi.org/10.17771/PUCRio.acad.71470
Arquivos do conteúdo
NA ÍNTEGRA PDF