Título
[pt] ESTENDENDO LINGUAGENS MULTIMÍDIA PARA SUPORTAR INTERAÇÕES MULTIMODAIS
Título
[en] EXTENDING MULTIMEDIA LANGUAGES TO SUPPORT MULTIMODAL USER INTERACTIONS
Autor
[pt] ÁLAN LÍVIO VASCONCELOS GUEDES
Vocabulário
[pt] NCL
Vocabulário
[pt] HTML
Vocabulário
[pt] INTERACOES MULTIUSUARIO
Vocabulário
[pt] MUI
Vocabulário
[pt] INTERACAO MULTIMODAIS
Vocabulário
[pt] LINGUAGEM MULTIMIDIA
Vocabulário
[pt] NESTED CONTEXT LANGUAGE
Vocabulário
[en] NCL
Vocabulário
[en] HTML
Vocabulário
[en] MULTIUSER USER INTERACTIONS
Vocabulário
[en] MUI
Vocabulário
[en] MULTIMODAL USER INTERACTIONS
Vocabulário
[en] MULTIMEDIA LANGUAGE
Vocabulário
[en] NESTED CONTEXT LANGUAGE
Resumo
[pt] Os recentes avanços em tecnologias de reconhecimento, como fala, toque e gesto, deram origem a uma nova classe de interfaces de usuário que não apenas explora múltiplas modalidades de interação, mas também permite múltiplos usuários interagindo. O desenvolvimento de aplicativos com interações multimodais e multiusuários trazem desafios para a sua especificação e execução. A especificação de uma aplicação multimodal é comumente o foco das pesquisas em interação multimodal, enquanto a especificação de sincronismos audiovisuais geralmente é o foco das pesquisas em multimídia. Nesta tese, com o objetivo de auxiliar a especificação de tais aplicações, buscamos integrar conceitos dessas duas pesquisas e propomos estender linguagens multimídia com entidades de primeira classe para suportar recursos multiusuário e multimodais. Essas entidades foram instanciadas nas linguagens NCL e HTML. Para avaliar nossa abordagem, realizamos uma avaliação com desenvolvedores NCL e HTML para capturar indícios de aceitação das entidades propostas e suas sintaxes nessas linguagens.
Resumo
[en] Recent advances in recognition technologies, such as speech, touch and gesture, have given rise to a new class of user interfaces that does not only explore multiple modalities but also allows for multiple interacting users. The development of applications with both multimodal and multiuser interactions arise new specification and execution issues. The specification of multimodal application is commonly the focus of multimodal interaction research, while the specification of the synchronization of audiovisual media
is usually the focus of multimedia research. In this thesis, aiming to assist the specification of such applications, we propose to integrate concepts from those two research areas and to extend multimedia languages with first-class entities to support multiuser and multimodal features. Those entities were
instantiated in NCL and HTML. To evaluate our approach, we performed an evaluation with NCL and HTML developers to capture evidences of their acceptance of the proposed entities and instantiations in those languages.
Orientador(es)
SIMONE DINIZ JUNQUEIRA BARBOSA
Banca
SIMONE DINIZ JUNQUEIRA BARBOSA
Banca
HUGO FUKS
Banca
SERGIO COLCHER
Banca
CARLOS DE SALLES SOARES NETO
Banca
DEBORA CHRISTINA MUCHALUAT SAADE
Catalogação
2017-12-13
Apresentação
2017-09-29
Tipo
[pt] TEXTO
Formato
application/pdf
Idioma(s)
INGLÊS
Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=32313@1
Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=32313@2
Referência DOI
https://doi.org/10.17771/PUCRio.acad.32313
Arquivos do conteúdo
NA ÍNTEGRA PDF