Generación Automática de Pruebas Unitarias con LLMs: Efectividad y Métricas de Calidad

Keywords:
GPT Large Language Model LLMs Software Testing Test Generation
Prerrequisitos:
IIC2233

El propósito de este proyecto es analizar la efectividad, el alcance y las limitaciones de los Large Language Models (LLMs) en la generación automática de pruebas unitarias. La investigación contempla la exploración del uso de distintos LLMs y estrategias de prompting, así como el análisis de benchmarks y datasets relevantes para la evaluación y entrenamiento de estos modelos. El objetivo final es generar unit tests de forma automática y evaluar su calidad mediante métricas como la cobertura de código y presencia de test-smells.

Si bien el requisito mínimo es haber cursado Programación Avanzada, tener además los cursos de Testing o Procesamiento de Lenguaje Natural sería deseable.

Fecha de Creación 19/07/2025
Vacantes Disponibles 0/1
Créditos 10
Modalidad Nota 1-7
¿Es CMD?
De tener un carácter Interdisciplinario puede ser considerado como OFG
No
Mentores
  • Juan Pablo Sandoval Alcocer (Responsable)
Estudiantes de doctorado que ayudarán mentoreando en esta investigación Kevin Cespedes
¿Es pública?
Las oportunidades públicas son visibles para personas externas a la plataforma
¿Es postulable?
Las oportunidades postulables son visibles para estudiantes y tienen vacantes disponible
No: No quedan vacantes disponibles.
¿Tiene fecha límite?
La oportunidad dejará de ser postulable después de la fecha límite
No