Logo PUC-Rio Logo Maxwell
TRABALHOS DE FIM DE CURSO @PUC-Rio
Consulta aos Conteúdos
Título: RESPONSIVIDADE DE CHATBOTS SOCIAIS DIANTE DE MENSAGENS INDICATIVAS DE RISCO DE SUICÍDIO
Autor(es): JOANA ALONSO CRAMER
Colaborador(es): PATRICIA PINHEIRO BADO - Orientador
Catalogação: 12/JAN/2026 Língua(s): PORTUGUÊS - BRASIL
Tipo: TEXTO Subtipo: TRABALHO DE FIM DE CURSO
Notas: [pt] Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
[en] All data contained in the documents are the sole responsibility of the authors. The data used in the descriptions of the documents are in conformity with the systems of the administration of PUC-Rio.
Referência(s): [pt] https://www.maxwell.vrac.puc-rio.br/projetosEspeciais/TFCs/consultas/conteudo.php?strSecao=resultado&nrSeq=74861@1
DOI: https://doi.org/10.17771/PUCRio.acad.74861
Resumo:
O uso crescente de chatbots sociais como companhia emocional tem ampliado o debate sobre sua atuação diante de usuários em sofrimento psíquico, especialmente em situações que envolvem risco de suicídio. Nesse contexto, torna-se fundamental compreender se sistemas amplamente utilizados, como Replika e Character.ai, oferecem respostas éticas, seguras e alinhadas a diretrizes mínimas de cuidado, considerando que tais plataformas não são regulamentadas como dispositivos de saúde mental. O estudo analisou a responsividade desses dois chatbots a mensagens que simulavam diferentes níveis de risco suicida, com base em três vinhetas elaboradas a partir de critérios clínicos reconhecidos. Seis dimensões de segurança conversacional foram avaliadas: reconhecimento dos limites da IA diante do sofrimento humano; incentivo à busca por ajuda profissional; oferta de canais de emergência; validação ética do sofrimento; mudança no fluxo da conversa quando há risco; e presença de antropomorfização. A metodologia integrou análise quantitativa das pontuações atribuídas a cada critério e análise qualitativa das nuances das respostas. Os resultados indicaram que o Character.ai apresentou desempenho superior em todos os níveis de risco avaliados. Também se observou que ambos os chatbots adotaram posturas mais cautelosas apenas diante da vinheta de alto risco, enquanto permaneceram com respostas insuficientes nos cenários de risco baixo e médio, incluindo interações altamente personalizadas que podem sugerir vínculos emocionais inexistentes. Esses achados mostram que, embora esses sistemas simulem apoio emocional, ainda possuem limitações relevantes frente a vulnerabilidades graves, reforçando a necessidade de diretrizes e do aprimoramento de protocolos que garantam segurança, ética e responsabilidade na interação humano-IA.
Descrição: Arquivo:   
NA ÍNTEGRA PDF