Communication publiée dans un ouvrage (Colloques, congrès, conférences scientifiques et actes)
LLMs and Prompting for Unit Test Generation: A Large-Scale Evaluation
OUEDRAOGO, Wendkûuni Arzouma Marc Christian; KABORE, Abdoul Kader; TIAN, Haoye et al.
2024In Proceedings - 2024 39th ACM/IEEE International Conference on Automated Software Engineering, ASE 2024
Editorial reviewed
 

Documents


Texte intégral
3691620.3695330.pdf
Postprint Éditeur (777.95 kB)
Télécharger

Tous les documents dans ORBilu sont protégés par une licence d'utilisation.

Envoyer vers



Détails



Mots-clés :
automatic test generation; empirical evaluation; large language models; prompt engineering; unit tests; Automatic test generation; Empirical evaluations; Language model; Large language model; Large-scales; Prompt engineering; Time constraints; Unit test generations; Unit testing; Unit tests; Artificial Intelligence; Software; Safety, Risk, Reliability and Quality
Résumé :
[en] Unit testing, essential for identifying bugs, is often neglected due to time constraints. Automated test generation tools exist but typically lack readability and require developer intervention. Large Language Models (LLMs) like GPT and Mistral show potential in test generation, but their effectiveness remains unclear.This study evaluates four LLMs and five prompt engineering techniques, analyzing 216 300 tests for 690 Java classes from diverse datasets. We assess correctness, readability, coverage, and bug detection, comparing LLM-generated tests to EvoSuite. While LLMs show promise, improvements in correctness are needed. The study highlights both the strengths and limitations of LLMs, offering insights for future research.
Disciplines :
Sciences informatiques
Auteur, co-auteur :
OUEDRAOGO, Wendkûuni Arzouma Marc Christian  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust (SNT) > TruX
KABORE, Abdoul Kader  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust (SNT) > SNT Office > Project Coordination
TIAN, Haoye  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust > TruX > Team Tegawendé François d A BISSYANDE ; University of Melbourne, Australia
SONG, Yewei  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust (SNT) > TruX
KOYUNCU, Anil  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust > TruX > Team Tegawendé François d A BISSYANDE ; Bilkent University, Turkey
KLEIN, Jacques  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust (SNT) > TruX
LO, David ;  Singapore Management University, Singapore
BISSYANDE, Tegawendé François d Assise  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust (SNT) > TruX
Co-auteurs externes :
yes
Langue du document :
Anglais
Titre :
LLMs and Prompting for Unit Test Generation: A Large-Scale Evaluation
Date de publication/diffusion :
27 octobre 2024
Nom de la manifestation :
Proceedings of the 39th IEEE/ACM International Conference on Automated Software Engineering
Lieu de la manifestation :
Sacramento, Usa
Date de la manifestation :
28-10-2024 => 01-11-2024
Sur invitation :
Oui
Titre de l'ouvrage principal :
Proceedings - 2024 39th ACM/IEEE International Conference on Automated Software Engineering, ASE 2024
Maison d'édition :
Association for Computing Machinery, Inc
ISBN/EAN :
9798400712487
Peer reviewed :
Editorial reviewed
Organisme subsidiant :
ACM
ACM SIGAI
Google
IEEE
Special Interest Group on Software Engineering (SIGSOFT)
University of California, Davis (UC Davis)
N° du Fonds :
17185670
Subventionnement (détails) :
This work is supported by funding from the Fonds National de la Recherche Luxembourg (FNR) under the Aides la Formation- Recherche (AFR) (grant agreement No. 17185670).
Disponible sur ORBilu :
depuis le 06 février 2025

Statistiques


Nombre de vues
107 (dont 4 Unilu)
Nombre de téléchargements
75 (dont 0 Unilu)

citations Scopus®
 
7
citations Scopus®
sans auto-citations
6
OpenCitations
 
0
citations OpenAlex
 
6

Bibliographie


Publications similaires



Contacter ORBilu