| Título: | RESPONSIVIDADE DE CHATBOTS SOCIAIS DIANTE DE MENSAGENS INDICATIVAS DE RISCO DE SUICÍDIO | ||||||||||||
| Autor(es): |
JOANA ALONSO CRAMER |
||||||||||||
| Colaborador(es): |
PATRICIA PINHEIRO BADO - Orientador |
||||||||||||
| Catalogação: | 12/JAN/2026 | Língua(s): | PORTUGUÊS - BRASIL |
||||||||||
| Tipo: | TEXTO | Subtipo: | TRABALHO DE FIM DE CURSO | ||||||||||
| Notas: |
[pt] Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio. [en] All data contained in the documents are the sole responsibility of the authors. The data used in the descriptions of the documents are in conformity with the systems of the administration of PUC-Rio. |
||||||||||||
| Referência(s): |
[pt] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/TFCs/consultas/conteudo.php?strSecao=resultado&nrSeq=74861@1 |
||||||||||||
| DOI: | https://doi.org/10.17771/PUCRio.acad.74861 | ||||||||||||
| Resumo: | |||||||||||||
|
O uso crescente de chatbots sociais como companhia emocional tem ampliado o
debate sobre sua atuação diante de usuários em sofrimento psíquico, especialmente em
situações que envolvem risco de suicídio. Nesse contexto, torna-se fundamental
compreender se sistemas amplamente utilizados, como Replika e Character.ai, oferecem
respostas éticas, seguras e alinhadas a diretrizes mínimas de cuidado, considerando que
tais plataformas não são regulamentadas como dispositivos de saúde mental. O estudo
analisou a responsividade desses dois chatbots a mensagens que simulavam diferentes
níveis de risco suicida, com base em três vinhetas elaboradas a partir de critérios clínicos
reconhecidos. Seis dimensões de segurança conversacional foram avaliadas:
reconhecimento dos limites da IA diante do sofrimento humano; incentivo à busca por ajuda
profissional; oferta de canais de emergência; validação ética do sofrimento; mudança no
fluxo da conversa quando há risco; e presença de antropomorfização. A metodologia
integrou análise quantitativa das pontuações atribuídas a cada critério e análise qualitativa
das nuances das respostas. Os resultados indicaram que o Character.ai apresentou
desempenho superior em todos os níveis de risco avaliados. Também se observou que
ambos os chatbots adotaram posturas mais cautelosas apenas diante da vinheta de alto
risco, enquanto permaneceram com respostas insuficientes nos cenários de risco baixo e
médio, incluindo interações altamente personalizadas que podem sugerir vínculos
emocionais inexistentes. Esses achados mostram que, embora esses sistemas simulem
apoio emocional, ainda possuem limitações relevantes frente a vulnerabilidades graves,
reforçando a necessidade de diretrizes e do aprimoramento de protocolos que garantam
segurança, ética e responsabilidade na interação humano-IA.
|
|||||||||||||
|
|||||||||||||