Generación Automática de Pruebas Unitarias con LLMs: Efectividad y Métricas de Calidad
Keywords:
GPT
Large Language Model
LLMs
Software Testing
Test Generation
Prerrequisitos:
IIC2233
El propósito de este proyecto es analizar la efectividad, el alcance y las limitaciones de los Large Language Models (LLMs) en la generación automática de pruebas unitarias. La investigación contempla la exploración del uso de distintos LLMs y estrategias de prompting, así como el análisis de benchmarks y datasets relevantes para la evaluación y entrenamiento de estos modelos. El objetivo final es generar unit tests de forma automática y evaluar su calidad mediante métricas como la cobertura de código y presencia de test-smells.
Si bien el requisito mínimo es haber cursado Programación Avanzada, tener además los cursos de Testing o Procesamiento de Lenguaje Natural sería deseable.
Fecha de Creación | 19/07/2025 |
---|---|
Vacantes Disponibles | 0/1 |
Créditos | 10 |
Modalidad | Nota 1-7 |
¿Es CMD?
De tener un carácter Interdisciplinario puede ser considerado como OFG |
No |
Mentores |
|
Estudiantes de doctorado que ayudarán mentoreando en esta investigación | Kevin Cespedes |
¿Es pública?
Las oportunidades públicas son visibles para personas externas a la plataforma |
Sí |
---|---|
¿Es postulable?
Las oportunidades postulables son visibles para estudiantes y tienen vacantes disponible |
No: No quedan vacantes disponibles. |
¿Tiene fecha límite?
La oportunidad dejará de ser postulable después de la fecha límite |
No |