The Math Behind the Magic: Neural Networks, Theory and Practice

Profesores: Joaquin Fontbona, Diego Olguín & Javier Maass

[Bloque B] 3 sesiones, cada día de las 16h30 a las 17h45

El curso tiene como objetivo abordar los resultados teórico-matemáticos más importantes de las redes neuronales, conectándolos con aplicaciones del mundo real. Se explorarán conceptos clave como las arquitecturas de red, el teorema de aproximación universal y la optimización mediante descenso de gradiente estocástico.

Se combinarán discusiones teóricas con tutoriales prácticos, enfocándose en la aplicación de redes neuronales convolucionales para la clasificación de imágenes, así como en el uso de redes neuronales informadas por física (PINNs) para la simulación de sistemas físicos o regidos por ecuaciones diferenciales.

Las actividades prácticas se desarrollarán en PyTorch, por lo que se recomienda tener conocimientos intermedios de Python. Todo el trabajo de programación se realizará en la nube, por lo que no será necesario instalar ningún software para las sesiones. Además, se abordarán aspectos técnicos como GitHub y el uso de GPU, sin requerir experiencia previa.

Conocimientos previos deseables: Probabilidades, Python (intermedio).