Historia de la Inteligencia Artificial

·12 min de lectura·

Historia de la Inteligencia Artificial - Hitos Principales

La historia de la IA abarca desde la antigüedad hasta la actualidad, pasando por mitos, fundamentos filosóficos, nacimiento académico, inviernos de financiación, y el auge actual con modelos de lenguaje grandes. He aquí un pequeño de resumen de esa línea del tiempo hasta la actualidad.

Inteligencia Artificial


Línea de Tiempo de Hitos Principales

Precursores (Antigüedad - 1940)

PeriodoHitoDescripción
Mitología griegaTalosCriatura de bronce guardián de Creta
Edad MediaGolemEscultura de arcilla cobraba vida con nombres de Dios
Siglo IXAl-JuarismiIntroduce el concepto de algoritmo
Siglo XVIILeibniz, Hobbes, DescartesExploraron razonamiento mecánico sistemático
1843Ada LovelaceEspeculó sobre máquina de Babbage como "máquina pensante"
1936Alan TuringMáquina de Turing - fundamentos teóricos de computación

Nacimiento de la IA (1941-1956)

AñoHitoImportancia
1943McCulloch & PittsPrimera red neuronal artificial (neuronas booleanas)
1950Test de TuringTuring publica "Computing Machinery and Intelligence"
1951SNARCPrimera máquina de red neuronal (Minsky & Edmonds)
1951IA en juegosPrimeros programas de damas y ajedrez
1955Logic TheoristNewell & Simon demuestran teoremas de Principia Mathematica
1956Conferencia de Dartmouth🎓 Nacimiento oficial de la IA como disciplina

Conferencia de Dartmouth (1956)

  • Organizadores: Marvin Minsky, John McCarthy, Claude Shannon, Nathan Rochester
  • Participantes: Ray Solomonoff, Oliver Selfridge, Arthur Samuel, Allen Newell, Herbert Simon
  • Definición: "Todo aspecto del aprendizaje puede describirse con tal precisión que una máquina pueda simularlo"
  • Término acuñado: "Inteligencia Artificial" por John McCarthy

Primeros Éxitos (1956-1974)

AñoHitoDescripción
1956Revolución cognitivaCambio de paradigma interdisciplinario (psicología, lingüística, CS)
1958Geometry Theorem ProverResolución de problemas de geometría
1961SAINTIntegrador simbólico automático (álgebra)
1963ELIZAPrimer chatbot (Joseph Weizenbaum)
1965DendralSistema experto: identifica compuestos químicos
1966SHRDLUComunicación en lenguaje natural (micromundo de bloques)
1968MYCINDiagnóstico de infecciones sanguíneas

Predicciones Optimistas (no cumplidas):

1958 - Simon & Newell: "En 10 años, computadora será campeona mundial de ajedrez"
1965 - Simon: "En 20 años, máquinas harán cualquier trabajo humano"
1967 - Minsky: "En una generación, el problema de la IA estará resuelto"
1970 - Minsky: "En 3-8 años, máquina con inteligencia humana media"

Financiación:

  • 1963: MIT recibe $2.2M de ARPA (proyecto MAC)
  • 1960s: DARPA aporta $3M anuales hasta 1970s

Primer Invierno de la IA (1974-1980)

AñoEventoImpacto
1966Informe ALPACNRC suspende financiación de traducción automática ($20M invertidos)
1973Informe LighthillCrítica al fracaso de la IA en Reino Unido → desmantelamiento
1974Corte de financiaciónGobiernos de EE.UU. y Gran Bretaña dejan de financiar IA no dirigida
1976Paradoja de MoravecIA exitosa en tareas "inteligentes", fracasa en tareas "simples" (reconocer caras, navegar)

Problemas Identificados:

  1. Potencia computacional limitada: Memoria y velocidad insuficientes
  2. Explosión combinatoria: Problemas requieren tiempo exponencial
  3. Conocimiento de sentido común: Se necesitan miles de millones de hechos
  4. Representación del razonamiento: Lógica formal se vuelve demasiado compleja

📈 Auge de los Sistemas Expertos (1980-1987)

AñoHitoDescripción
1980R1/XCONSistema experto para DEC: ahorra $40M anuales para 1986
1981Computadoras de 5ta GeneraciónJapón invierte $850M (conversación, traducción, razonamiento)
1982Red de HopfieldJohn Hopfield demuestra redes neuronales no lineales convergentes
1985Industria de IACorporaciones gastan >$1,000M en IA
1986RetropropagaciónHinton & Rumelhart popularizan entrenamiento de redes neuronales
1986Parallel Distributed ProcessingColección que funda el "conexionismo"
1988Probabilistic ReasoningJudea Pearl introduce probabilidad y teoría de decisión en IA

Revolución del Conocimiento:

  • Sistemas expertos: Programas que usan reglas lógicas de expertos humanos
  • Ejemplos clave: Dendral (química), MYCIN (médico), R1/XCON (configuración hardware)
  • Ingeniería del conocimiento: El conocimiento se convierte en el foco central

Nuevas Direcciones:

  • Conexionismo: Reaparición de redes neuronales
  • Computación blanda: Lógica difusa, redes bayesianas, modelos ocultos de Márkov
  • Robótica incorporada: Rodney Brooks - "El mundo es su propio mejor modelo"

Segundo Invierno de la IA (Década de 1990)

AñoEventoImpacto
1987Colapso máquinas LispMercado de $500M se desmorona (PCs superan máquinas especializadas)
1990TD-GammonGerald Tesauro: aprendizaje por diferencia temporal juega backgammon a nivel experto
1991Fin Proyecto 5ta GeneraciónJapón no cumple objetivos ("mantener conversación casual" tardaría 30 años más)
1993Cierre de empresas+300 empresas de IA cierran o quiebran
1997Deep Blue vs Kasparov🏆 Primera computadora derrota a campeón mundial de ajedrez (11 de mayo)

IA "Tras Bambalinas":

La IA se integró en sistemas más amplios sin ser llamada "IA":

  • Minería de datos
  • Robótica industrial
  • Reconocimiento de voz
  • Software bancario
  • Diagnóstico médico
  • Motor de búsqueda de Google

"Gran parte de la IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin ser llamada IA, porque una vez que algo se vuelve útil y común, deja de etiquetarse como inteligencia artificial." — Nick Bostrom

Big Data y Aprendizaje Profundo (2005-2017)

AñoHitoImportancia
2002Labeled Faces in the WildDataset de rostros para reconocimiento facial
2007ImageNetFei-Fei Li: 3 millones de imágenes etiquetadas
2011Watson en Jeopardy!IBM Watson derrota a campeones humanos (febrero 2011)
2012AlexNet🎯 Punto de inflexión: gana ImageNet con margen enorme (Hinton & Krizhevsky)
2013word2vecGoogle: incrustación de palabras captura relaciones semánticas
2014DeepMind vendida a GoogleDemis Hassabis vende con condición de comité ético
2015OpenAI fundadaSam Altman, Elon Musk (sin fines de lucro inicialmente)
2016AlphaGoDerrota a campeón mundial de Go
2016Mercado de IASupera $8,000M en productos, hardware y software

Revolución del Deep Learning:

  • AlexNet (2012): 650,000 neuronas, dropout, ReLU
  • Aplicaciones: Reconocimiento de voz, traducción automática, diagnóstico médico, videojuegos
  • Clave: Grandes volúmenes de datos + hardware potente

Problema de Alineación:

  • 2014: Nick Bostrom publica "Superintelligence"
  • Riesgo existencial: Máquinas superinteligentes podrían representar amenaza
  • Alineación de valores: Mitigar riesgos y consecuencias no deseadas

Investigación en AGI:

  • DeepMind (2010): Demis Hassabis, Shane Legg, Mustafa Suleyman
  • OpenAI (2015): Sam Altman, Elon Musk
  • Anthropic (2021): Dario Amodei + 14 científicos de OpenAI

Modelos de Lenguaje y Auge de la IA (2017-Presente)

AñoHitoDescripción
2017Arquitectura TransformerGoogle: "Attention Is All You Need"
2020GPT-3OpenAI: modelo de lenguaje grande escalado
202015.aiClonación de voces con 15 segundos de audio (MIT)
2022GatoDeepMind: modelo fundacional multimodal
2022ChatGPTLanzado 30 de noviembre: 100M usuarios en 2 meses
2023Claude 3Anthropic: Haiku, Sonnet, Opus (marzo)
2023Carta de Pausa+20,000 firmantes piden pausar experimentos de IA gigantes
2024Claude 3.5 SonnetSupera a Claude 3 Opus en programación y análisis
2024OpenAI o387.5% en ARC-AGI (supera media humana del 84%)
2024Premios NobelFísica: Hopfield & Hinton; Química: Baker, Hassabis & Jumper (AlphaFold)

Inversión Exponencial:

AñoInversión TotalIA Generativa
2014$18,000M-
2021$119,000M-
2023-~30% del total

Valoraciones de Empresas (2024):

  • OpenAI: $86,000M (principios de 2024)
  • NVIDIA: $3.3 billones (la empresa más valiosa del mundo, mediados de 2024)

Reacción de Big Tech:

  • Google: "Código rojo" → lanza Gemini (antes Bard)
  • Microsoft: Integra IA en Bing Chat, invierte >$1,000M en OpenAI

Comparativa de Épocas

Capacidad Computacional

ÉpocaComputadoraVelocidadComparación
1951Ferranti Mark 1~833 flopsBase
1997Deep Blue11.38 gigaflops10 millones de veces más rápida
2024GPU NVIDIA H100~1,000 teraflops1 billón de veces más rápida

Tamaño de Datasets

AñoDatasetTamañoUso
1970sQuillian lenguaje natural20 palabrasTodo lo que cabía en memoria
2007Labeled Faces13,000 imágenesReconocimiento facial
2009ImageNet3 millones imágenesProcesamiento de imágenes
2020sLLMs (GPT-4, etc.)Billones de tokensModelos de lenguaje

Lecciones Aprendidas

1. El Problema de las Predicciones Exageradas

"Muchos investigadores quedaron atrapados en una red de exageraciones crecientes." — Hans Moravec

  • Predicciones de 1950s-60s no se cumplieron en décadas
  • Expectativas públicas imposibles → decepción → cortes de financiación

2. La Paradoja de Moravec

  • Fácil para IA: Ajedrez, teoremas matemáticos, álgebra
  • Difícil para IA: Reconocer caras, navegar sin chocar, sentido común
  • Razón: Tareas "fáciles" para humanos son evolutivamente antiguas y optimizadas

3. Importancia del Conocimiento

"La gran lección de la década de 1970 fue que el comportamiento inteligente dependía mucho del manejo del conocimiento, a veces conocimiento bastante detallado, de un dominio donde se encontraba una tarea determinada." — Pamela McCorduck

4. Ley de Moore como Habilitador

  • Muchos logros no fueron por nuevos paradigmas, sino por potencia computacional
  • Deep Blue: 10 millones de veces más rápida que Ferranti Mark 1 (1951)

5. Efecto IA

"Una vez que algo se vuelve útil y común, deja de etiquetarse como inteligencia artificial."

  • IA en los 90s se renombró: "sistemas cognitivos", "informática", "inteligencia computacional"
  • Evitaban el término por miedo a ser vistos como "soñadores"

Tendencias Futuras y Desafíos

Desafíos Actuales:

DesafíoDescripción
Alineación de valoresAsegurar que objetivos de IA coincidan con valores humanos
Sesgo algorítmicoSistemas de ML exhiben sesgos raciales, de género, etc.
DesinformaciónDeepfakes, propaganda automatizada
Desempleo tecnológicoAutomatización de trabajos satisfactorios
Control de civilización¿Delegar decisiones críticas a máquinas?

Llamado a la Precaución (2023):

"Llamamos a todos los laboratorios de IA a pausar inmediatamente, por al menos seis meses, el entrenamiento de sistemas más potentes que GPT-4." — Pause Giant AI Experiments: An Open Letter

+20,000 firmantes: Yoshua Bengio, Elon Musk, Steve Wozniak, etc.

Definición de AGI (François Chollet):

"Sabremos que la AGI ha llegado cuando crear tareas que sean fáciles para los humanos pero difíciles para la IA se vuelva simplemente imposible."


Referencias Clave

TipoReferencia
LibrosRussell & Norvig: "Artificial Intelligence: A Modern Approach"
LibrosPamela McCorduck: "Machines Who Think"
LibrosNick Bostrom: "Superintelligence"
LibrosDaniel Crevier: "AI: The Tumultuous History of the Search for Artificial Intelligence"
PaperTuring (1950): "Computing Machinery and Intelligence"
PaperMcCulloch & Pitts (1943): "A logical calculus of the ideas immanent in nervous activity"
PaperVaswani et al. (2017): "Attention Is All You Need"

En resumen

La historia de la IA es un ciclo de expectativas exageradas → decepción → avance real → nuevas expectativas.

Patrones clave:

  1. Optimismo inicial (1950s-60s): Predicciones de IA humana en 20 años
  2. Primer invierno (1974-80): Cortes de financiación por no cumplir promesas
  3. Auge de sistemas expertos (1980s): Éxito comercial limitado a dominios específicos
  4. Segundo invierno (1990s): Colapso de mercado, IA se integra "tras bambalinas"
  5. Revolución del deep learning (2010s): Big data + GPU = avances reales
  6. Auge de LLMs (2020s): ChatGPT, modelos fundacionales, inversión exponencial

Lección principal: La IA ha avanzado más cuando se enfoca en problemas específicos con soluciones verificables en lugar de promesas de inteligencia general.


Comentarios (0)

Sé el primero en comentar.