ia

De las matemáticas a la IA

¿Sabes cómo las matemáticas han formado las bases para la inteligencia artificial? Aquí te contamos brevemente.

Algo de historia

Línea de tiempo

Aquí presentamos algunos hitos en la historia del desarrollo de la Inteligencia Artificial, para mostrar brevemente de qué manera las matemáticas han contribuido a su nacimiento y desarrollo.

Regresa a visitarnos.
Actualizaremos pronto el contenido.

1642 Calculadora de Pascal El matemático Blaise Pascal construye la primera calculadora mecánica a base de ruedas y engranajes.
1830 Máquina Analítica El matemático e inventor Charles Babbage concibe una máquina diseñada para realizar cálculos de forma mecánica, considerada como precursora de las computadoras modernas.
Dadas las limitaciones y temores de la época, esta nunca fue construída. Recién en 1991 se construyó una versión más simple de esta máquina, en el Museo de Ciencias de Londres.
1842 Primera programadora de la historia Ada Lovelace desempeña un papel crucial al anticipar el poder de la Máquina Analítica. Su trabajo incluye algoritmos detallados para cálculos numéricos y la manipulación de símbolos, sentando así las bases de la programación.
1847 Lógica Booleana George Boole desarrolló el álgebra booleana, creando un marco formal para la manipulación simbólica y el razonamiento lógico.
El álgebra booleana es un sistema matemático que trabaja con variables y operadores que se utiliza para representar y manipular proposiciones lógicas, siendo fundamental en el desarrollo de circuitos electrónicos y en el diseño y programación de algoritmos en informática.
1910-1913 Principia Mathematica Bertrand Russell y Alfred Whitehead publican esta serie de tres libros donde se demuestra que todas las matemáticas elementales pueden reducirse a razonamiento mecánico en lógica formal.
1931 Teorema de Gödel Kurt Gödel establece los teoremas de incompletitud, influyendo en la comprensión de las limitaciones y alcances de la lógica matemática, y por tanto de la capacidad del pensamiento matemático y computacional.
1935 Cálculo Lambda Alonzo Church demuestra que el problema de decisión de la informática no tiene una solución general y desarrolla el cálculo Lambda, fundamental para la teoría de los lenguajes informáticos.
1936 Máquina de Turing Alan Turing establece la teoría moderna de la computación al introducir la máquina de Turing.
Una máquina de Turing es un modelo abstracto de computación que permite simular símbolos y manipulaciones matemáticas. Mediante una cinta infinita dividida en celdas, una cabeza de lectura y escritura y un conjunto de reglas que especifican cómo la máquina realiza operaciones simples, permite la simulación de cualquier algoritmo computacional.
1943 Modelo de redes neuronales artificiales Los matemáticos Warren McCulloch y Walter Pitts proponen el modelo de neuronas artificiales.
El modelo de neuronas artificiales es una representación simplificada de cómo las neuronas del cerebro funcionan. Se basa en una lógica binaria donde las entradas se ponderan y suman, y si la suma alcanza un umbral, la neurona emite una señal de salida. Este modelo inicial sentó las bases para el desarrollo de redes neuronales en la inteligencia artificial.
1945 Arquitectura de Von Neumann John von Neumann revoluciona la informática al diseñar una  arquitectura que separa memoria y unidad de procesamiento, fundamental en la evolución de las computadoras modernas. Además, crea la programación estocástica, los autómatas celulares, y el concepto de Singularidad Tecnológica.
1948 Teoría de la Información Claude Shannon desarrolla herramientas esenciales para cuantificar la información, fundamentales para la transmisión de datos, el diseño de algoritmos y protocolos de comunicación.
1948 Cibernética El matemático y filósofo Norbert Wiener acuña el término en su libro “Cibernética: O el control y comunicación en animales y máquinas”, dando inicio a esta disciplina.
1950 Test de Turing Alan Turing propone el famoso Test de Turing como un criterio para determinar si una máquina puede pensar.
1951 Red neuronal artificial Marvin Minsky crea la primera red de 40 neuronas artificiales usando componentes analógicos y electromecánicos para experimentar con el aprendizaje automático (Machine Learning)
1956 Inteligencia Artificial como disciplina Aunque ya existían trabajos en el área, en la Conferencia de Dartmouth se acuña el término “Inteligencia Artificial”, marcando su inicio oficial.
1957 Perceptron Frank Rosenblatt introduce un modelo de neurona artificial que marca uno de los primeros intentos de crear una unidad de procesamiento inspirada en el funcionamiento del cerebro. Aunque de complejidad limitada, este allana el camino para futuros desarrollos en redes neuronales y aprendizaje profundo.
1965 ELIZA Joseph Weizenbaum crea ELIZA, un programa de lenguaje natural capaz de mantener un diálogo en inglés sobre cualquier tema, similar a como funcionan los chatbots de la actualidad.
1970 Algoritmo de retropropagación (Back propagation) Seppo Linnainmaa publica el modo inverso de diferenciación automática, conocido más tarde como retropropagación, muy utilizado para entrenar redes neuronales artificiales. Su adopción generalizada se produjo más tarde con el resurgimiento del interés en el aprendizaje profundo.
1982

Aprendizaje Profundo

(Deep Learning)

Desarrollo de modelos de redes neuronales profundas, contribuyendo al auge del aprendizaje profundo y mejorando la capacidad de las máquinas para procesar información compleja.
1992 Auge del aprendizaje automático (Machine Learning) Aumenta el interés en algoritmos de aprendizaje supervisado de Machine Learning, que utiliza algoritmos y modelos estadísticos para realizar una tarea sin necesidad de instrucciones explícitas.
1997 Deep Blue vs. Kasparov La computadora Deep Blue derrota al campeón mundial de ajedrez, Garry Kasparov, marcando un hito en la aplicación exitosa de la inteligencia artificial en juegos estratégicos.
2000 Centro de Modelamiento Matemático Nace el CMM en la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile.
2010

Resurgimiento del Aprendizaje Profundo

(Deep Learning)

Avances significativos en redes neuronales profundas transforman el campo de la inteligencia artificial, mejorando el rendimiento en tareas como reconocimiento de imágenes y procesamiento del lenguaje natural.
2011 NLHPC Comienza el funcionamiento del Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC) del CMM, que opera el supercomputador más potente de Chile, disponible gratuitamente para toda la comunidad científica nacional.
2012 AlexNet Esta red neuronal convolucional (CNN) revoluciona el reconocimiento de objetos en imágenes, superando en rendimiento a métodos previos, estableciendo nuevas normas y catalizando avances en el campo del aprendizaje profundo aplicado a la visión por computadora.
2016 AlphaGo AlphaGo, desarrollado por DeepMind usando aprendizaje supervisado y por refuerzo, además de datos de partidas humanas, derrota al campeón mundial de Go, Lee Sedol, destacando la capacidad de las máquinas para dominar juegos complejos.
2017 AlphaZero Creado por DeepMind, este programa de IA marca un hito al dominar juegos complejos, como el ajedrez y Go sin estrategias humanas preprogramadas. Mediante aprendizaje por refuerzo y redes neuronales, demuestra la capacidad de las máquinas para aprender y superar a los campeones mundiales de juegos estratégicos.
2018 GPT (Generative Pre-trained Transformer) OpenAI lanza GPT-3, una poderosa red neuronal de transformer, que destaca por su capacidad para generar texto coherente y contexto relevante.
2019 ALeRCE Broker o intermediario astronómico que cada día recibe alertas desde varios telescopios alrededor del mundo, las que indican cambios en el brillo de un objeto o la aparición de nuevos objetos. Usa IA para clasificar un gran número de eventos astronómicos como supernovas para que estén disponibles para la investigación astronómica.
2020 Desarrollo de Modelos de Aprendizaje Automático en Pandemia La inteligencia artificial desempeña un papel crucial en el análisis de datos y en la predicción de patrones durante la pandemia de COVID-19, facilitando la toma de decisiones.
2021 Salud Digital del CMM El área aborda técnicas de aprendizaje supervisado, sistemas predictivos en gestión de salud, procesamiento de lenguaje natural en medicina, diagnósticos asistidos por IA, epidemiología y genómica.
2022 Masificación de de Modelos GPT La serie de modelos GPT, como GPT-3, avanzan en la capacidad de generación de texto y se dejan disponibles versiones gratuitas para público general.
2022 Integración de la IA en Asistentes Virtuales Asistentes virtuales como Siri, Google Assistant y Alexa mejoran su capacidad para comprender y responder de manera más natural, marcando avances en el procesamiento del lenguaje natural.
2023 Copernicus Chile Este repositorio permite acceso gratuito y abierto a imágenes y datos proporcionados por los satélites Sentinel de la Constelación Copernicus de la Unión Europea. Sus principales labores serán el Monitoreo de Ciudades, Monitoreo de Uso y Cobertura de Suelo, y Monitoreo de Costas.

El Centro de Modelización Matemática (CMM) es un centro científico nacional líder en investigación y aplicaciones de las matemáticas. Su objetivo es crear nuevas matemáticas y utilizarlas para resolver problemas procedentes de otras ciencias, la industria y las políticas públicas.

Contacto

infocmm@cmm.uchile.cl

+56 2 2978 4870

Avenida Beauchef 851,
Edificio Norte, piso 7
Santiago, Chile