Maxwell Para Simples Indexação

Título
[pt] AVALIANDO O POTENCIAL DE LLMS NA CLASSIFICAÇÃO DE REQUISITOS DE SOFTWARE RELACIONADOS A SEGURANÇA

Título
[en] EVALUATING THE POTENTIAL OF LARGE LANGUAGE MODELS IN SECURITY RELATED SOFTWARE REQUIREMENTS CLASSIFICATION

Autor
[pt] MURILO DE SA MARTIN

Vocabulário
[pt] ENGENHARIA DE REQUISITOS

Vocabulário
[pt] MODELO DE LINGUAGEM DE GRANDE ESCALA

Vocabulário
[pt] ENGENHARIA DE PROMPT

Vocabulário
[pt] APRENDIZADO DE MAQUINA

Vocabulário
[pt] REQUISITO NAO FUNCIONAL

Vocabulário
[en] REQUIREMENTS ENGINEERING

Vocabulário
[en] LARGE LANGUAGE MODEL

Vocabulário
[en] PROMPT ENGINEERING

Vocabulário
[en] MACHINE LEARNING

Vocabulário
[en] NON FUNCTIONAL REQUIREMENT

Resumo
[pt] A classificação eficaz de requisitos de software relacionados à segurança é essencial para mitigar potenciais ameaças e garantir um design de sistema robusto. Este estudo investiga a precisão dos Modelos de Linguagem de Grande Escala (LLMs) na classificação de requisitos relacionados à segurança em comparação com métodos tradicionais de aprendizado de máquina (ML). Utilizando os conjuntos de dados SecReq e PROMISE exp, avaliamos nove LLMs em diferentes estratégias de engenharia de prompts. Os resultados demonstram que os LLMs alcançam alta acurácia e superam os modelos tradicionais de ML em diversos cenários de avaliação, além de mostrar que a engenharia de prompts pode melhorar significativamente a capacidade dos modelos de identificar requisitos relacionados à segurança. Este trabalho destaca as capacidades de generalização dos LLMs e seu potencial para simplificar a classificação de requisitos sem a complexidade de engenharia de atributos ou fine tuning, comumente necessários em abordagens de ML. Pesquisadores, profissionais e desenvolvedores de ferramentas podem aproveitar essas descobertas para avançar em abordagens automatizadas na engenharia de requisitos de segurança.

Resumo
[en] Effective classification of security-related software requirements is essential for mitigating potential threats and ensuring robust system design. This study investigates the accuracy of large language models (LLMs) in classifying security-related requirements compared to traditional machine learning (ML) methods. Using the SecReq and PROMISE_exp datasets, we evaluated nine LLMs across various prompt engineering strategies. The results demonstrate that LLMs achieve high accuracy and outperform traditional ML models in several evaluation scenarios and that prompt engineering can significantly enhance the model’s ability to identify security-related requirements. This work underscores the domain-generalization capabilities of LLMs and their potential to streamline requirements classification without the complexity of feature engineering or dataset-specific fine-tuning often required by ML approaches. Researchers, practitioners, and tool developers can leverage these findings to advance automated approaches in security requirements engineering.

Orientador(es)
JULIANA ALVES PEREIRA

Catalogação
2025-04-28

Tipo
[pt] TEXTO

Formato
application/pdf

Idioma(s)
INGLÊS

Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=70140@1

Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=70140@2

Referência DOI
https://doi.org/10.17771/PUCRio.acad.70140


Arquivos do conteúdo
NA ÍNTEGRA PDF