Logo PUC-Rio Logo Maxwell
TRABALHOS DE FIM DE CURSO @PUC-Rio
Consulta aos Conteúdos
Título: O IMPACTO DE MODULADORES EMOCIONAIS NA TOMADA DE DECISÃO DA INTELIGÊNCIA ARTIFICIAL
Autor(es): LEONARDO FERREIRA RUSSO
Colaborador(es): PATRICIA PINHEIRO BADO - Orientador
Catalogação: 02/SET/2025 Língua(s): PORTUGUÊS - BRASIL
Tipo: TEXTO Subtipo: TRABALHO DE FIM DE CURSO
Notas: [pt] Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
[en] All data contained in the documents are the sole responsibility of the authors. The data used in the descriptions of the documents are in conformity with the systems of the administration of PUC-Rio.
Referência(s): [pt] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/TFCs/consultas/conteudo.php?strSecao=resultado&nrSeq=72752@1
DOI: https://doi.org/10.17771/PUCRio.acad.72752
Resumo:
Com o avanço do uso das inteligências artificiais no cotidiano e em áreas especializadas, tornou-se necessário cada vez mais investigar a forma que elas produzem conteúdos morais. A proposta desta monografia foi investigar de que forma emoções como raiva e pena podem influenciar a tomada de decisão moral por parte de modelos de linguagem baseados em inteligência artificial, especialmente em cenários jurídicos simulados. Para isso, recorremos a contribuições da psicologia moral e da neurociência afetiva, aplicando três modelos distintos, ChatGPT, Gemini e Replika, a uma série de situações fictícias de julgamento, as quais variavam de acordo em relação ao conteúdo emocional atribuído no contexto. Os dados obtidos revelaram diferenças importantes entre os modelos no que diz respeito à sensibilidade a esses moduladores emocionais. A Replika, por exemplo, apresentou maior variação em função das emoções envolvidas, enquanto o ChatGPT se mostrou mais estável, quase indiferente ao conteúdo emocional das situações. Um ponto que merece atenção foi que, apesar das variações nos níveis da empatia simulada pelos modelos, não houve uma relação direta entre essa empatia e as sentenças atribuídas. Outro aspecto relevante observado foi a diferença entre os modos de coleta dos dados no Gemini. Percebemos algumas diferenças significativas nos resultados comparando a coleta via API e via web na interface tradicional do usuário. Considerando tudo isso, o estudo não apenas aponta limitações importantes no uso de IAs em contextos que exigem julgamento moral, como também reforça a necessidade de se discutir critérios éticos claros para o uso dessas ferramentas em decisões de natureza jurídica.
Descrição: Arquivo:   
NA ÍNTEGRA PDF