Minicurso
El curso Una introducción a los métodos de splitting proximales para problemas de optimización con estructura es impartido por el prof. Felipe Atenas, The University of Melbourne.
Los problemas de gran escala suelen tener una estructura favorable, la cual es clave aprovechar para poder resolver estos problemas de manera eficiente. Los métodos de descomposición en optimización dividen problemas complejos en partes más pequeñas y manejables para usar las propiedades de los componentes subyacentes por separado. En este tutorial, nos centraremos en un tipo especial de método de descomposición llamado splitting proximal.
Comenzaremos revisando la piedra angular de la mayoría de los métodos de optimización continua modernos, el método del gradiente y el algoritmo de punto proximal. Luego, discutiremos el método de gradiente proximal, así como el método de multiplicadores en direcciones alternas (ADMM) en el contexto de una de las tareas de aprendizaje estadístico supervisado más comunes, el problema de mínimos cuadrados regularizado.
Analizaremos versiones convexas y no convexas de este problema y compararemos los beneficios y desventajas de diferentes formulaciones. Este tutorial tiene un componente teórico y uno práctico, ya que realizaremos experimentos numéricos en Python. Si el tiempo lo permite, también discutiremos otros ejemplos destacados de métodos de splitting proximal, a saber, los métodos Douglas-Rachford y Chambolle-Pock.
Felipe Atenas
The University of Melbourne, Australia
Es investigador postdoctoral en optimización en la Escuela de Matemáticas y Estadística de la Universidad de Melbourne, Australia.
Su investigación se centra en los fundamentos teóricos de los métodos de optimización computacional para resolver problemas de investigación operativa y aprendizaje automático. Le interesan especialmente los algoritmos para resolver problemas de optimización con estructuras explotables que descomponen los problemas a gran escala en trozos más pequeños y manejables, y aprovechan las propiedades subyacentes de los modelos. Ejemplos de problemas de optimización que entran en esta categoría aparecen en el aprendizaje estadístico, el procesamiento de señales, la optimización estocástica multietapa, la optimización multiagente consensuada y los sistemas de energía.
Originario de Chile, cursó su doctorado en Matemáticas Aplicadas en el Instituto de Matemáticas, Estadística e Informática Científica (IMECC) de la Universidad Estatal de Campinas (UNICAMP, Brasil), bajo la supervisión de la Dra. Claudia Sagastizábal, con Paulo J. S. Silva como cosupervisor. Su tesis se tituló «Métodos de descomposición proximal para problemas de optimización con estructura».