XINFORMAÇÕES SOBRE DIREITOS AUTORAIS
As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.
A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.
A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.
A violação de direitos autorais é passível de sanções civis e penais.
As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.
A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.
A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.
A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital
Título: UNSUPERVISED MULTI-REVIEW SUMMARIZATION USING FINE-TUNED TRANSFORMER LANGUAGE MODELS Autor: LUCAS ROBERTO DA SILVA
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):
SERGIO COLCHER - ADVISOR
Nº do Conteudo: 53550
Catalogação: 05/07/2021 Liberação: 05/07/2021 Idioma(s): ENGLISH - UNITED STATES
Tipo: TEXT Subtipo: THESIS
Natureza: SCHOLARLY PUBLICATION
Nota: Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53550&idi=1
Referência [en]: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53550&idi=2
Referência DOI: https://doi.org/10.17771/PUCRio.acad.53550
Resumo:
Título: UNSUPERVISED MULTI-REVIEW SUMMARIZATION USING FINE-TUNED TRANSFORMER LANGUAGE MODELS Autor: LUCAS ROBERTO DA SILVA
Nº do Conteudo: 53550
Catalogação: 05/07/2021 Liberação: 05/07/2021 Idioma(s): ENGLISH - UNITED STATES
Tipo: TEXT Subtipo: THESIS
Natureza: SCHOLARLY PUBLICATION
Nota: Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53550&idi=1
Referência [en]: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53550&idi=2
Referência DOI: https://doi.org/10.17771/PUCRio.acad.53550
Resumo:
Automatic summarization is the task of generating concise, correct, and
factual summaries. The task can be applied to different textual styles, including
news, academic publications, and product or place reviews. This dissertation
addresses the summary of multiple evaluations. This type of application stands
out for its unsupervised nature and the need to deal with the redundancy of
the information present in the reviews. The automatic summarization works
are evaluated using the ROUGE metric, which is based on the comparison of
n-grans between the reference text and the generated summary. The lack of
supervised data motivated the creation of the MeanSum architecture, which
was the first neural network architecture based on an unsupervised model for
this task. It is based on auto-encoder and has been extended to other works,
but none explored the effects of using the attention mechanism and auxiliary
tasks during training. The present work is divided into two parts: the first deals
with an experiment in which we make extensions to the MeanSum architecture,
adding attention mechanisms and auxiliary sentiment classification tasks. In
the same experiment, we explore synthetic data to adapt supervised models
for unsupervised tasks. In the second part, we used the results previously
obtained to carry out a second study on fine-tuning pre-trained Transformer
language models. The use of these models showed a promising alternative to
the unsupervised nature of the problem, outperforming previous works by +
4 ROUGE.
Descrição | Arquivo |
COMPLETE |