ia

De las matemáticas
a la IA

¿Sabes cómo las matemáticas han formado las bases para el desarrollo de la inteligencia artificial? Aquí te contamos brevemente.

Algo de historia

Línea de tiempo

Aquí presentamos algunos hitos en la historia del desarrollo de la Inteligencia Artificial, para mostrar brevemente de qué manera las matemáticas han contribuido a su nacimiento y desarrollo.

Contenido en revisión. Última actualización: 20241021

Blaise Pascal

1642

Calculadora de Pascal

El matemático Blaise Pascal construye la primera calculadora mecánica a base de ruedas y engranajes.

Charles Babbage

1830

Máquina Analítica

El matemático e inventor Charles Babbage concibe una máquina diseñada para realizar cálculos de forma mecánica, considerada como precursora de las computadoras modernas.

Dadas las limitaciones tecnológicas de la época y razones políticas, esta nunca fue construida. Recién en 1991 se construyó una versión más simple de esta máquina, en el Museo de Ciencias de Londres.

Ada Lovelace

1842

Primera programadora de la historia

Ada Lovelace desempeña un papel crucial al anticipar el poder de la Máquina Analítica. Su trabajo incluye algoritmos detallados para cálculos numéricos y la manipulación de símbolos, sentando así las bases de la programación.

Boole

1847

Lógica Booleana

George Boole desarrolló el álgebra booleana, creando un marco formal para la manipulación simbólica y el razonamiento lógico.

El álgebra booleana es un sistema matemático que trabaja con variables y operadores que se utiliza para representar y manipular proposiciones lógicas, siendo fundamental en el desarrollo de circuitos electrónicos y en el diseño y programación de algoritmos en informática.

Russell

1910-1913

Principia Mathematica

Bertrand Russell y Alfred Whitehead publican esta serie de tres libros donde se demuestra que todas las matemáticas elementales pueden reducirse a razonamiento mecánico en lógica formal.

Gödel

1931

Teorema de Gödel

Kurt Gödel establece los teoremas de incompletitud, influyendo en la comprensión de las limitaciones y alcances de la lógica matemática, y por tanto de la capacidad del pensamiento matemático y computacional.

Gödel

1935

Cálculo Lambda

Alonzo Church demuestra que el problema de decisión de la informática no tiene una solución general y desarrolla el cálculo Lambda, fundamental para la teoría de los lenguajes informáticos.

Alan Turing

1936

Máquina de Turing

Alan Turing establece la teoría moderna de la computación al introducir la máquina de Turing.

Una máquina de Turing es un modelo abstracto de computación que permite simular símbolos y manipulaciones matemáticas. Mediante una cinta infinita dividida en celdas, una cabeza de lectura y escritura y un conjunto de reglas que especifican cómo la máquina realiza operaciones simples, permite la simulación de cualquier algoritmo computacional.

Alan Turing

1943

Modelo de redes neuronales artificiales

Los matemáticos Warren McCulloch y Walter Pitts proponen el modelo de neuronas artificiales.

El modelo de neuronas artificiales es una representación simplificada de cómo las neuronas del cerebro funcionan. Se basa en una lógica binaria donde las entradas se ponderan y suman, y si la suma alcanza un umbral, la neurona emite una señal de salida. Este modelo inicial sentó las bases para el desarrollo de redes neuronales en la inteligencia artificial.

John von Neumann

1945

Arquitectura de Von Neumann

John von Neumann revoluciona la informática al diseñar una  arquitectura que separa memoria y unidad de procesamiento, fundamental en la evolución de las computadoras modernas. Además, crea la programación estocástica, los autómatas celulares, y el concepto de Singularidad Tecnológica.

Claude Shannon

1948

Teoría de la Información

Claude Shannon desarrolla herramientas esenciales para cuantificar la información, fundamentales para la transmisión de datos, el diseño de algoritmos y protocolos de comunicación.

Norbert Wiener

1948

Cibernética

El matemático y filósofo Norbert Wiener acuña el término en su libro “Cibernética: O el control y comunicación en animales y máquinas”, dando inicio a esta disciplina.

Alan Turing

1950

Test de Turing

Alan Turing propone el famoso Test de Turing como un criterio para determinar si una máquina puede pensar.

Marvin Minsky

1951

Red neuronal artificial

Marvin Minsky crea la primera red de 40 neuronas artificiales usando componentes analógicos y electromecánicos para experimentar con el aprendizaje automático (Machine Learning).

Marvin Minsky

1956

Inteligencia Artificial como disciplina

Aunque ya existían trabajos en el área, en la Conferencia de Dartmouth se acuña el término “Inteligencia Artificial”, marcando su inicio oficial.

Marvin Minsky

1957

Perceptron

Frank Rosenblatt introduce un modelo de neurona artificial que marca uno de los primeros intentos de crear una unidad de procesamiento inspirada en el funcionamiento del cerebro. Aunque de complejidad limitada, este allana el camino para futuros desarrollos en redes neuronales y aprendizaje profundo.

Joseph Weizenbaum

1965

ELIZA

Joseph Weizenbaum crea ELIZA, un programa de lenguaje natural capaz de mantener un diálogo en inglés sobre cualquier tema, similar a como funcionan los chatbots de la actualidad.

Joseph Weizenbaum

1970

Algoritmo de retropropagación (Back propagation)

Seppo Linnainmaa publica el modo inverso de diferenciación automática, conocido más tarde como retropropagación, muy utilizado para entrenar redes neuronales artificiales. Su adopción generalizada se produjo más tarde con el resurgimiento del interés en el aprendizaje profundo.

Paul Werbos

1974

Paul Werbos

Formaliza el algoritmo de retropropagación.

Paul Werbos

1982

Aprendizaje Profundo
(Deep Learning)

Desarrollo de modelos de redes neuronales profundas, contribuyendo al auge del aprendizaje profundo y mejorando la capacidad de las máquinas para procesar información compleja.

Geofrey Hinton

1986

Geofrey Hinton

Red neuronal recurrente.

Geofrey Hinton

1992

Auge del aprendizaje automático (Machine Learning)

Aumenta el interés en algoritmos de aprendizaje supervisado de Machine Learning, que utiliza algoritmos y modelos estadísticos para realizar una tarea sin necesidad de instrucciones explícitas.

Geofrey Hinton

1997

Deep Blue vs. Kasparov

La computadora Deep Blue derrota al campeón mundial de ajedrez, Garry Kasparov, marcando un hito en la aplicación exitosa de la inteligencia artificial en juegos estratégicos.

CMM

2000

Centro de Modelamiento Matemático

Nace el CMM en la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile.

Geofrey Hinton

2006

Geofrey Hinton

Aprendizaje Profundo (Deep Learning).

Geofrey Hinton

2010

Resurgimiento del Aprendizaje Profundo
(Deep Learning)

Avances significativos en redes neuronales profundas transforman el campo de la inteligencia artificial, mejorando el rendimiento en tareas como reconocimiento de imágenes y procesamiento del lenguaje natural.

NLHPC

2011

NLHPC

Comienza el funcionamiento del Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC) del CMM, que opera el supercomputador más potente de Chile, disponible gratuitamente para toda la comunidad científica nacional.

NLHPC

2012

AlexNet

Esta red neuronal convolucional (CNN) revoluciona el reconocimiento de objetos en imágenes, superando en rendimiento a métodos previos, estableciendo nuevas normas y catalizando avances en el campo del aprendizaje profundo aplicado a la visión por computadora.

lan Goodfelow

2014

Redes generativas adversarias (GAN)

lan Goodfellow

Las GAN (Generative Adversarial Networks) son un tipo de arquitectura de aprendizaje profundo que emplea dos redes neuronales que compiten entre sí: una genera nuevos datos y la otra evalúa su autenticidad. Este proceso iterativo permite que las GAN generen datos cada vez más realistas, como imágenes o música, a partir de un conjunto de datos de entrenamiento.

AlphaGo

2016

AlphaGo

AlphaGo, desarrollado por DeepMind usando aprendizaje supervisado y por refuerzo, además de datos de partidas humanas, derrota al campeón mundial de Go, Lee Sedol, destacando la capacidad de las máquinas para dominar juegos complejos.

NLHPC

2017

AlphaZero

Creado por DeepMind, este programa de IA marca un hito al dominar juegos complejos, como el ajedrez y Go sin estrategias humanas preprogramadas. Mediante aprendizaje por refuerzo y redes neuronales, demuestra la capacidad de las máquinas para aprender y superar a los campeones mundiales de juegos estratégicos.

NLHPC

2018

GPT (Generative Pre-trained Transformer)

OpenAI lanza GPT-3, una poderosa red neuronal de transformer, que destaca por su capacidad para generar texto coherente y contexto relevante.

ALeRCE

2019

ALeRCE

ALeRCE (Automatic Learning for the Rapid Classification of Events) es un broker o intermediario astronómico que cada día recibe alertas desde varios telescopios alrededor del mundo, las que indican cambios en el brillo de un objeto o la aparición de nuevos objetos. Usa IA para clasificar un gran número de eventos astronómicos como supernovas para que estén disponibles para la investigación astronómica.

CMM

2020

Desarrollo de Modelos de Aprendizaje Automático en Pandemia

La inteligencia artificial desempeña un papel crucial en el análisis de datos y en la predicción de patrones durante la pandemia de COVID-19, facilitando la toma de decisiones.

CMM Salud Digital

2021

Salud Digital del CMM

El área de Salud Digital aborda técnicas de aprendizaje supervisado, sistemas predictivos en gestión de salud, procesamiento de lenguaje natural en medicina, diagnósticos asistidos por IA, epidemiología y genómica.

CMM

2022

Masificación de Modelos GPT

La serie de modelos GPT, como GPT-3, avanzan en la capacidad de generación de texto y se dejan disponibles versiones gratuitas para público general.

CMM

2022

Integración de la IA en Asistentes Virtuales

Asistentes virtuales como Siri, Google Assistant y Alexa mejoran su capacidad para comprender y responder de manera más natural, marcando avances en el procesamiento del lenguaje natural.

Copernicus

2023

Copernicus Chile

El repositorio de Copernicus Chile permite acceso gratuito y abierto a imágenes y datos proporcionados por los satélites Sentinel de la Constelación Copernicus de la Unión Europea. Sus principales labores serán el Monitoreo de Ciudades, Monitoreo de Uso y Cobertura de Suelo, y Monitoreo de Costas.

El Centro de Modelamiento Matemático (CMM) es un centro científico nacional líder en investigación y aplicaciones de las matemáticas. Su objetivo es crear nuevas matemáticas y utilizarlas para resolver problemas procedentes de otras ciencias, la industria y las políticas públicas.

Contacto

infocmm@cmm.uchile.cl

+56 2 2978 4870

Avenida Beauchef 851,
Edificio Norte, piso 7
Santiago, Chile