05-06-2025 |
Análisis e Implementación de un Método de Suavización Aleatorizada para Optimización Convexa Estocástica
Este proyecto busca investigar teórica y computacionalmente la técnica de suavización aleatorizada ({\em randomized smoothing}) en optimización estocástica en altas dimensiones. Se explorarán casos específicos, tales como modelos intrinsecamente de baja dimensión, o redes neuronales de una capa oculta. Los objetivos del proyecto son múltiples. El principal es determinar cotas precisas en las tasas de convergencia en estas estructuras particulares de funciones objetivo, y determinar a partir de estas tasas el mejor diseño de arquitectura y elección de parámetros para los algoritmos. Sin embargo, otro aspecto importante es la comparación en el desempeño de los algoritmos usando información de primer orden (gradientes) versus de orden cero (evaluaciones). En este último caso es de interés estudiar modelos locales para métodos de región de confianza ({\em trust region}). Finalmente, es de interés estudiar el efecto de la elección de la distribución en la regularidad de la función suavizada
Keywords:
Optimización convexa
Prerequisitos:
IMT3150
Tiene un método de evaluación Nota 1-7, con 10 créditos y tiene 1/1 vacantes disponibles |
Mentor(es): Ver en la plataforma |
05-06-2025 |
Referencias: • Nesterov, Y., Spokoiny, V. Random Gradient-Free Minimization of Convex Functions. Found Comput Math 17, 527–566 (2017) • Diakonikolas J., Guzmán C.: Optimization on a Finer Scale: Bounded Local Subgradient Variation Perspective. ArXiv:2403.16317 (2024)
Keywords:
Optimización convexa
Prerequisites:
IMT3150
Evaluation method: Nota 1-7, with 1/1 available vacants |
Mentor(s): Open in the plataform |