Historia de la Inteligencia Artificial - Hitos Principales
La historia de la IA abarca desde la antigüedad hasta la actualidad, pasando por mitos, fundamentos filosóficos, nacimiento académico, inviernos de financiación, y el auge actual con modelos de lenguaje grandes.
He aquí un pequeño de resumen de esa línea del tiempo hasta la actualidad.

Línea de Tiempo de Hitos Principales
Precursores (Antigüedad - 1940)
| Periodo | Hito | Descripción |
|---|
| Mitología griega | Talos | Criatura de bronce guardián de Creta |
| Edad Media | Golem | Escultura de arcilla cobraba vida con nombres de Dios |
| Siglo IX | Al-Juarismi | Introduce el concepto de algoritmo |
| Siglo XVII | Leibniz, Hobbes, Descartes | Exploraron razonamiento mecánico sistemático |
| 1843 | Ada Lovelace | Especuló sobre máquina de Babbage como "máquina pensante" |
| 1936 | Alan Turing | Máquina de Turing - fundamentos teóricos de computación |
Nacimiento de la IA (1941-1956)
| Año | Hito | Importancia |
|---|
| 1943 | McCulloch & Pitts | Primera red neuronal artificial (neuronas booleanas) |
| 1950 | Test de Turing | Turing publica "Computing Machinery and Intelligence" |
| 1951 | SNARC | Primera máquina de red neuronal (Minsky & Edmonds) |
| 1951 | IA en juegos | Primeros programas de damas y ajedrez |
| 1955 | Logic Theorist | Newell & Simon demuestran teoremas de Principia Mathematica |
| 1956 | Conferencia de Dartmouth | 🎓 Nacimiento oficial de la IA como disciplina |
Conferencia de Dartmouth (1956)
- Organizadores: Marvin Minsky, John McCarthy, Claude Shannon, Nathan Rochester
- Participantes: Ray Solomonoff, Oliver Selfridge, Arthur Samuel, Allen Newell, Herbert Simon
- Definición: "Todo aspecto del aprendizaje puede describirse con tal precisión que una máquina pueda simularlo"
- Término acuñado: "Inteligencia Artificial" por John McCarthy
Primeros Éxitos (1956-1974)
| Año | Hito | Descripción |
|---|
| 1956 | Revolución cognitiva | Cambio de paradigma interdisciplinario (psicología, lingüística, CS) |
| 1958 | Geometry Theorem Prover | Resolución de problemas de geometría |
| 1961 | SAINT | Integrador simbólico automático (álgebra) |
| 1963 | ELIZA | Primer chatbot (Joseph Weizenbaum) |
| 1965 | Dendral | Sistema experto: identifica compuestos químicos |
| 1966 | SHRDLU | Comunicación en lenguaje natural (micromundo de bloques) |
| 1968 | MYCIN | Diagnóstico de infecciones sanguíneas |
Predicciones Optimistas (no cumplidas):
1958 - Simon & Newell: "En 10 años, computadora será campeona mundial de ajedrez"
1965 - Simon: "En 20 años, máquinas harán cualquier trabajo humano"
1967 - Minsky: "En una generación, el problema de la IA estará resuelto"
1970 - Minsky: "En 3-8 años, máquina con inteligencia humana media"
Financiación:
- 1963: MIT recibe $2.2M de ARPA (proyecto MAC)
- 1960s: DARPA aporta $3M anuales hasta 1970s
Primer Invierno de la IA (1974-1980)
| Año | Evento | Impacto |
|---|
| 1966 | Informe ALPAC | NRC suspende financiación de traducción automática ($20M invertidos) |
| 1973 | Informe Lighthill | Crítica al fracaso de la IA en Reino Unido → desmantelamiento |
| 1974 | Corte de financiación | Gobiernos de EE.UU. y Gran Bretaña dejan de financiar IA no dirigida |
| 1976 | Paradoja de Moravec | IA exitosa en tareas "inteligentes", fracasa en tareas "simples" (reconocer caras, navegar) |
Problemas Identificados:
- Potencia computacional limitada: Memoria y velocidad insuficientes
- Explosión combinatoria: Problemas requieren tiempo exponencial
- Conocimiento de sentido común: Se necesitan miles de millones de hechos
- Representación del razonamiento: Lógica formal se vuelve demasiado compleja
📈 Auge de los Sistemas Expertos (1980-1987)
| Año | Hito | Descripción |
|---|
| 1980 | R1/XCON | Sistema experto para DEC: ahorra $40M anuales para 1986 |
| 1981 | Computadoras de 5ta Generación | Japón invierte $850M (conversación, traducción, razonamiento) |
| 1982 | Red de Hopfield | John Hopfield demuestra redes neuronales no lineales convergentes |
| 1985 | Industria de IA | Corporaciones gastan >$1,000M en IA |
| 1986 | Retropropagación | Hinton & Rumelhart popularizan entrenamiento de redes neuronales |
| 1986 | Parallel Distributed Processing | Colección que funda el "conexionismo" |
| 1988 | Probabilistic Reasoning | Judea Pearl introduce probabilidad y teoría de decisión en IA |
Revolución del Conocimiento:
- Sistemas expertos: Programas que usan reglas lógicas de expertos humanos
- Ejemplos clave: Dendral (química), MYCIN (médico), R1/XCON (configuración hardware)
- Ingeniería del conocimiento: El conocimiento se convierte en el foco central
Nuevas Direcciones:
- Conexionismo: Reaparición de redes neuronales
- Computación blanda: Lógica difusa, redes bayesianas, modelos ocultos de Márkov
- Robótica incorporada: Rodney Brooks - "El mundo es su propio mejor modelo"
Segundo Invierno de la IA (Década de 1990)
| Año | Evento | Impacto |
|---|
| 1987 | Colapso máquinas Lisp | Mercado de $500M se desmorona (PCs superan máquinas especializadas) |
| 1990 | TD-Gammon | Gerald Tesauro: aprendizaje por diferencia temporal juega backgammon a nivel experto |
| 1991 | Fin Proyecto 5ta Generación | Japón no cumple objetivos ("mantener conversación casual" tardaría 30 años más) |
| 1993 | Cierre de empresas | +300 empresas de IA cierran o quiebran |
| 1997 | Deep Blue vs Kasparov | 🏆 Primera computadora derrota a campeón mundial de ajedrez (11 de mayo) |
IA "Tras Bambalinas":
La IA se integró en sistemas más amplios sin ser llamada "IA":
- Minería de datos
- Robótica industrial
- Reconocimiento de voz
- Software bancario
- Diagnóstico médico
- Motor de búsqueda de Google
"Gran parte de la IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin ser llamada IA, porque una vez que algo se vuelve útil y común, deja de etiquetarse como inteligencia artificial." — Nick Bostrom
Big Data y Aprendizaje Profundo (2005-2017)
| Año | Hito | Importancia |
|---|
| 2002 | Labeled Faces in the Wild | Dataset de rostros para reconocimiento facial |
| 2007 | ImageNet | Fei-Fei Li: 3 millones de imágenes etiquetadas |
| 2011 | Watson en Jeopardy! | IBM Watson derrota a campeones humanos (febrero 2011) |
| 2012 | AlexNet | 🎯 Punto de inflexión: gana ImageNet con margen enorme (Hinton & Krizhevsky) |
| 2013 | word2vec | Google: incrustación de palabras captura relaciones semánticas |
| 2014 | DeepMind vendida a Google | Demis Hassabis vende con condición de comité ético |
| 2015 | OpenAI fundada | Sam Altman, Elon Musk (sin fines de lucro inicialmente) |
| 2016 | AlphaGo | Derrota a campeón mundial de Go |
| 2016 | Mercado de IA | Supera $8,000M en productos, hardware y software |
Revolución del Deep Learning:
- AlexNet (2012): 650,000 neuronas, dropout, ReLU
- Aplicaciones: Reconocimiento de voz, traducción automática, diagnóstico médico, videojuegos
- Clave: Grandes volúmenes de datos + hardware potente
Problema de Alineación:
- 2014: Nick Bostrom publica "Superintelligence"
- Riesgo existencial: Máquinas superinteligentes podrían representar amenaza
- Alineación de valores: Mitigar riesgos y consecuencias no deseadas
Investigación en AGI:
- DeepMind (2010): Demis Hassabis, Shane Legg, Mustafa Suleyman
- OpenAI (2015): Sam Altman, Elon Musk
- Anthropic (2021): Dario Amodei + 14 científicos de OpenAI
Modelos de Lenguaje y Auge de la IA (2017-Presente)
| Año | Hito | Descripción |
|---|
| 2017 | Arquitectura Transformer | Google: "Attention Is All You Need" |
| 2020 | GPT-3 | OpenAI: modelo de lenguaje grande escalado |
| 2020 | 15.ai | Clonación de voces con 15 segundos de audio (MIT) |
| 2022 | Gato | DeepMind: modelo fundacional multimodal |
| 2022 | ChatGPT | Lanzado 30 de noviembre: 100M usuarios en 2 meses |
| 2023 | Claude 3 | Anthropic: Haiku, Sonnet, Opus (marzo) |
| 2023 | Carta de Pausa | +20,000 firmantes piden pausar experimentos de IA gigantes |
| 2024 | Claude 3.5 Sonnet | Supera a Claude 3 Opus en programación y análisis |
| 2024 | OpenAI o3 | 87.5% en ARC-AGI (supera media humana del 84%) |
| 2024 | Premios Nobel | Física: Hopfield & Hinton; Química: Baker, Hassabis & Jumper (AlphaFold) |
Inversión Exponencial:
| Año | Inversión Total | IA Generativa |
|---|
| 2014 | $18,000M | - |
| 2021 | $119,000M | - |
| 2023 | - | ~30% del total |
Valoraciones de Empresas (2024):
- OpenAI: $86,000M (principios de 2024)
- NVIDIA: $3.3 billones (la empresa más valiosa del mundo, mediados de 2024)
Reacción de Big Tech:
- Google: "Código rojo" → lanza Gemini (antes Bard)
- Microsoft: Integra IA en Bing Chat, invierte >$1,000M en OpenAI
Comparativa de Épocas
Capacidad Computacional
| Época | Computadora | Velocidad | Comparación |
|---|
| 1951 | Ferranti Mark 1 | ~833 flops | Base |
| 1997 | Deep Blue | 11.38 gigaflops | 10 millones de veces más rápida |
| 2024 | GPU NVIDIA H100 | ~1,000 teraflops | 1 billón de veces más rápida |
Tamaño de Datasets
| Año | Dataset | Tamaño | Uso |
|---|
| 1970s | Quillian lenguaje natural | 20 palabras | Todo lo que cabía en memoria |
| 2007 | Labeled Faces | 13,000 imágenes | Reconocimiento facial |
| 2009 | ImageNet | 3 millones imágenes | Procesamiento de imágenes |
| 2020s | LLMs (GPT-4, etc.) | Billones de tokens | Modelos de lenguaje |
Lecciones Aprendidas
1. El Problema de las Predicciones Exageradas
"Muchos investigadores quedaron atrapados en una red de exageraciones crecientes." — Hans Moravec
- Predicciones de 1950s-60s no se cumplieron en décadas
- Expectativas públicas imposibles → decepción → cortes de financiación
2. La Paradoja de Moravec
- Fácil para IA: Ajedrez, teoremas matemáticos, álgebra
- Difícil para IA: Reconocer caras, navegar sin chocar, sentido común
- Razón: Tareas "fáciles" para humanos son evolutivamente antiguas y optimizadas
3. Importancia del Conocimiento
"La gran lección de la década de 1970 fue que el comportamiento inteligente dependía mucho del manejo del conocimiento, a veces conocimiento bastante detallado, de un dominio donde se encontraba una tarea determinada." — Pamela McCorduck
4. Ley de Moore como Habilitador
- Muchos logros no fueron por nuevos paradigmas, sino por potencia computacional
- Deep Blue: 10 millones de veces más rápida que Ferranti Mark 1 (1951)
5. Efecto IA
"Una vez que algo se vuelve útil y común, deja de etiquetarse como inteligencia artificial."
- IA en los 90s se renombró: "sistemas cognitivos", "informática", "inteligencia computacional"
- Evitaban el término por miedo a ser vistos como "soñadores"
Tendencias Futuras y Desafíos
Desafíos Actuales:
| Desafío | Descripción |
|---|
| Alineación de valores | Asegurar que objetivos de IA coincidan con valores humanos |
| Sesgo algorítmico | Sistemas de ML exhiben sesgos raciales, de género, etc. |
| Desinformación | Deepfakes, propaganda automatizada |
| Desempleo tecnológico | Automatización de trabajos satisfactorios |
| Control de civilización | ¿Delegar decisiones críticas a máquinas? |
Llamado a la Precaución (2023):
"Llamamos a todos los laboratorios de IA a pausar inmediatamente, por al menos seis meses, el entrenamiento de sistemas más potentes que GPT-4." — Pause Giant AI Experiments: An Open Letter
+20,000 firmantes: Yoshua Bengio, Elon Musk, Steve Wozniak, etc.
Definición de AGI (François Chollet):
"Sabremos que la AGI ha llegado cuando crear tareas que sean fáciles para los humanos pero difíciles para la IA se vuelva simplemente imposible."
Referencias Clave
| Tipo | Referencia |
|---|
| Libros | Russell & Norvig: "Artificial Intelligence: A Modern Approach" |
| Libros | Pamela McCorduck: "Machines Who Think" |
| Libros | Nick Bostrom: "Superintelligence" |
| Libros | Daniel Crevier: "AI: The Tumultuous History of the Search for Artificial Intelligence" |
| Paper | Turing (1950): "Computing Machinery and Intelligence" |
| Paper | McCulloch & Pitts (1943): "A logical calculus of the ideas immanent in nervous activity" |
| Paper | Vaswani et al. (2017): "Attention Is All You Need" |
En resumen
La historia de la IA es un ciclo de expectativas exageradas → decepción → avance real → nuevas expectativas.
Patrones clave:
- Optimismo inicial (1950s-60s): Predicciones de IA humana en 20 años
- Primer invierno (1974-80): Cortes de financiación por no cumplir promesas
- Auge de sistemas expertos (1980s): Éxito comercial limitado a dominios específicos
- Segundo invierno (1990s): Colapso de mercado, IA se integra "tras bambalinas"
- Revolución del deep learning (2010s): Big data + GPU = avances reales
- Auge de LLMs (2020s): ChatGPT, modelos fundacionales, inversión exponencial
Lección principal: La IA ha avanzado más cuando se enfoca en problemas específicos con soluciones verificables en lugar de promesas de inteligencia general.