| Título: | O IMPACTO DE MODULADORES EMOCIONAIS NA TOMADA DE DECISÃO DA INTELIGÊNCIA ARTIFICIAL | ||||||||||||
| Autor(es): |
LEONARDO FERREIRA RUSSO |
||||||||||||
| Colaborador(es): |
PATRICIA PINHEIRO BADO - Orientador |
||||||||||||
| Catalogação: | 02/SET/2025 | Língua(s): | PORTUGUÊS - BRASIL |
||||||||||
| Tipo: | TEXTO | Subtipo: | TRABALHO DE FIM DE CURSO | ||||||||||
| Notas: |
[pt] Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio. [en] All data contained in the documents are the sole responsibility of the authors. The data used in the descriptions of the documents are in conformity with the systems of the administration of PUC-Rio. |
||||||||||||
| Referência(s): |
[pt] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/TFCs/consultas/conteudo.php?strSecao=resultado&nrSeq=72752@1 |
||||||||||||
| DOI: | https://doi.org/10.17771/PUCRio.acad.72752 | ||||||||||||
| Resumo: | |||||||||||||
|
Com o avanço do uso das inteligências artificiais no cotidiano e em áreas
especializadas, tornou-se necessário cada vez mais investigar a forma que elas
produzem conteúdos morais. A proposta desta monografia foi investigar de que forma
emoções como raiva e pena podem influenciar a tomada de decisão moral por parte de
modelos de linguagem baseados em inteligência artificial, especialmente em cenários
jurídicos simulados. Para isso, recorremos a contribuições da psicologia moral e da
neurociência afetiva, aplicando três modelos distintos, ChatGPT, Gemini e Replika, a
uma série de situações fictícias de julgamento, as quais variavam de acordo em relação
ao conteúdo emocional atribuído no contexto. Os dados obtidos revelaram diferenças
importantes entre os modelos no que diz respeito à sensibilidade a esses moduladores
emocionais. A Replika, por exemplo, apresentou maior variação em função das
emoções envolvidas, enquanto o ChatGPT se mostrou mais estável, quase indiferente ao
conteúdo emocional das situações. Um ponto que merece atenção foi que, apesar das
variações nos níveis da empatia simulada pelos modelos, não houve uma relação direta
entre essa empatia e as sentenças atribuídas. Outro aspecto relevante observado foi a
diferença entre os modos de coleta dos dados no Gemini. Percebemos algumas
diferenças significativas nos resultados comparando a coleta via API e via web na
interface tradicional do usuário. Considerando tudo isso, o estudo não apenas aponta
limitações importantes no uso de IAs em contextos que exigem julgamento moral, como
também reforça a necessidade de se discutir critérios éticos claros para o uso dessas
ferramentas em decisões de natureza jurídica.
|
|||||||||||||
|
|||||||||||||