Introducción
Al iniciar este recorrido por la Inteligencia Artificial, nos sumergiremos primero en sus cimientos históricos y en las ideas más antiguas que han animado el sueño de crear máquinas con vida propia. Comprender cómo convergieron la Filosofía, las Matemáticas, la Psicología y la Ingeniería para forjar lo que hoy llamamos IA nos permitirá situar con perspectiva los debates éticos y sociales que surgen cuando delegamos decisiones en sistemas inteligentes. Esta lección establece las bases: examinaremos un detallado repaso cronológico de los grandes hitos de la disciplina, exploraremos los mitos de sirvientes mecánicos que anticiparon el ideal de la autonomía, y conoceremos las definiciones esenciales que diferencian al autómata, al robot y al agente racional.
Desarrollo del tema
Mirando hacia atrás
La historia formal de la IA apenas alcanza un siglo, pero en ese breve lapso ha acumulado descubrimientos que han cambiado radicalmente nuestra forma de concebir las máquinas. En 1950, Alan Turing publicó su famoso artículo “Computing Machinery and Intelligence”, donde proponía un test —hoy conocido como test de Turing— para evaluar la inteligencia de una máquina. En aquel texto ya se subrayaban ideas que hoy son centrales: el aprendizaje automático, el aprendizaje por refuerzo y los algoritmos genéticos. Seis años más tarde, en el taller de verano de Dartmouth (1956), se acuñó públicamente por primera vez el término «Inteligencia Artificial», marcando el nacimiento oficial de este campo.
Durante los años sesenta, la vertiente simbólica de la IA cobró protagonismo. En 1965, ELIZA, programada por Joseph Weizenbaum, estableció un hito como sistema de diálogo en lenguaje natural, capaz de simular una conversación simple en inglés. Un año después, en el MIT, comenzaron los trabajos en Shakey, el primer robot móvil de propósito general, que demostraba la viabilidad de unir percepción, planificación y acción mecánica. Sin embargo, aquel mismo año la publicación del informe ALPAC supuso un duro revés para la traducción automática, al dictaminar que los avances eran insuficientes, lo que llevó a una drástica reducción de fondos en el área. Pese a ello, en 1968 Terry Winograd presentó SHRDLU, un programa de comprensión de lenguaje natural que, integrado con un brazo robótico, obedecía instrucciones en un “mundo” de bloques de juguete, mostrando el poder de la IA simbólica para modelar entornos sencillos.
Figura 1
Captura de pantalla con la interfaz del programa ELIZA

En los setenta, la aplicación práctica cobró fuerza con MYCIN (1972), un sistema experto desarrollado en Stanford para diagnosticar infecciones sanguíneas y recomendar tratamientos. No obstante, ese mismo año, el influyente informe de James Lighthill sobre los avances de la IA en Gran Bretaña concluyó que las expectativas no se cumplían, provocando un recorte masivo de apoyos gubernamentales y dando inicio a uno de los llamados “inviernos de la IA”.
La década de los ochenta recuperó el entusiasmo gracias a ambiciosos proyectos y nuevos enfoques. Con un presupuesto de 850 millones de dólares, el gobierno japonés puso en marcha el proyecto de Quinta Generación de Computadoras, con el reto de crear máquinas capaces de tareas de IA avanzadas como la conversación, la traducción automática y el reconocimiento visual. Paralelamente, las redes neuronales volvieron a brillar con descubrimientos que revitalizaron el aprendizaje automático, y los sistemas expertos comenzaron a encontrar aplicaciones comerciales —por ejemplo, el sistema “RI” en Digital Equipment Corporation— demostrando que la IA podía ofrecer beneficios reales a la industria.
Los noventa trajeron la explosión de la red global gracias a Tim Berners-Lee. En 1997, IBM logró un hito al derrotar al campeón mundial de ajedrez Garry Kasparov con Deep Blue, y en 1998 Tiger Electronics lanzó Furby, un juguete interactivo dotado de algoritmos sencillos de IA, seguido en 1999 por AIBO de Sony, concebido como mascota robótica autónoma. Además, los progresos en redes neuronales para reconocimiento de escritura cimentaron el nacimiento del Machine Learning como disciplina independiente.
El nuevo milenio confirmó la entrada de la IA en la vida cotidiana. En 2002 apareció Roomba, la aspiradora robótica de iRobot, y en 2004 los vehículos Spirit y Opportunity de la NASA demostraron la navegación autónoma en Marte. En 2006, Geoffrey Hinton revolucionó las redes neuronales profundas al publicar trabajos clave que impulsaron el Deep Learning; poco después, Fei-Fei Li y su equipo en Princeton crearon ImageNet, base esencial para los avances en reconocimiento de imágenes.
Ya en la década de 2010, Watson de IBM ganó en 2011 el concurso Jeopardy! frente a dos antiguos campeones, evidenciando la madurez de los sistemas de preguntas y respuestas. En 2016, AlphaGo, de Google DeepMind, superó al maestro de Go Lee Sedol, demostrando la capacidad de las máquinas para manejar dominios de enorme complejidad estratégica. A lo largo de la década, la mejora simultánea de hardware y algoritmos de Deep Learning permitió entrenar modelos de gran escala en texto e imágenes, superando retos largamente postergados en visión por computador y traducción automática.
Este panorama histórico, que comienza en 1950 aunque arranca de ideas precedentes en el siglo XX, muestra un avance vertiginoso y a veces turbulento. Para quienes deseen explorar cada paso con mayor detalle, la BBC ofrece un recorrido por “15 momentos clave en la historia de la IA” que complementa y amplía este resumen.
Sirvientes robóticos
La noción de máquinas con cualidades cercanas a las humanas se remonta a la antigüedad. En la Ilíada XVIII, escrita por Homero alrededor del siglo VIII a. C., se describe cómo Hefesto, el herrero divino, se apoyaba en servidoras de oro animadas con mente, corazón inteligente y fuerza sobrehumana. Del mismo universo mitológico procede Talos, un coloso de bronce que patrullaba la costa de Creta tres veces al día a la velocidad de doscientos cincuenta millas por hora, lanzando rocas contra intrusos.
Estos relatos subrayan un rasgo recurrente: la doble naturaleza de tales autómatas, simultáneamente herramientas diseñadas a partir de materiales vulgares y entidades poseedoras de rasgos mentales. Aunque engendradas por divinidades, exhibían un grado de autonomía y de inteligencia que las acercaba a lo vivo. Como señala Mayor (2018), aquellas criaturas encarnan el concepto de “biotechne” o “vida a través de la artesanía”, anticipando la fascinación contemporánea por lo artificial.
Figura 2
Un ejemplo cotidiano de la IA moderna es el chatbot que atiende las primeras consultas a un servicio al cliente

En comparación, la IA moderna puede entenderse también como un conjunto de herramientas diseñadas para encargarse de subtareas específicas que antes requerían intervención humana. Un ejemplo cotidiano es el chatbot que atiende las primeras consultas a un servicio al cliente: tras analizar el texto del usuario, decide a qué departamento dirigir la petición. Aunque esta función es mucho más sencilla que la de un sirviente heroico, libera a las personas de tareas repetitivas. Sin embargo, la inexperiencia de estos sistemas a veces provoca errores de redirección o respuestas incongruentes, recordándonos que aún estamos lejos de máquinas tan infalibles como las de la mitología.
¿IA autónoma?
La promesa de asistentes inteligentes —herederos modernos de los autómatas homéricos— se materializa hoy en dispositivos como Alexa, Siri o Google Assistant. A pesar de su naturaleza todavía rudimentaria, estos sistemas nos permiten consultar el clima, gestionar citas o reproducir música con simples comandos de voz. Sin embargo, su nivel de autonomía suscita inquietudes: ¿hasta qué punto pueden tomar decisiones sin supervisión humana?
El fracaso del chatbot Tay, lanzado por Microsoft en 2016 y retirado en menos de 24 horas por emitir mensajes racistas y misóginos en Twitter, ejemplifica las consecuencias de delegar en sistemas sin controles éticos adecuados. De igual modo, la retirada de Lee Luda por la empresa surcoreana ScatterLab tras difundir contenido inapropiado pone de manifiesto que los sesgos y carencias de diseño pueden generar daños reputacionales y sociales. Estos tropiezos sensacionalistas evidencian que la autonomía de la IA requiere un marco de supervisión y responsabilidad que aún está en construcción.
Figura 3
Asistentes inteligentes

Contexto: sistemas autónomos e inteligentes
Para entender la IA es útil distinguir dos conceptos cercanos pero distintos. Un autómata, en su sentido clásico, es una máquina que opera total o parcialmente por sí misma, siguiendo secuencias de instrucciones predefinidas que responden a entradas determinadas. Ejemplos históricos son los campaneros de los relojes mecánicos, que “aciertan” a golpear a cada hora mediante engranajes y levas, sin un ápice de percepción real. Estos artefactos fueron concebidos a menudo como curiosidades de entretenimiento, imitando movimientos humanos o animales de forma mecánica.
El robot añade a esa capacidad de seguir patrones la flexibilidad de la programación digital. Al incorporar circuitos y software, un robot puede ejecutar comportamientos más complejos y adaptarse a nuevas tareas mediante la reconfiguración de su código. De hecho, el término proviene del polaco robota, que significa “trabajo forzado” o “esclavitud”, remitiendo de forma inquietante a la idea de sirvientes automáticos. En su versión más avanzada, un agente inteligente —o sistema autónomo e inteligente— combina percepción, adaptación y generación de objetivos: capta información del entorno, aprende de la experiencia, persiste en el tiempo y persigue metas sin intervención constante.
Contexto: los cuatro tipos de IA según Russell y Norvig
En su clásico Artificial Intelligence: A Modern Approach, Stuart Russell y Peter Norvig proponen un marco ordenado por dos ejes: “pensar” vs. “actuar” y “humanamente” vs. “racionalmente”. De este cruce surgen cuatro grandes categorías. “Pensar humanamente” busca replicar procesos cognitivos mediante modelos de la mente humana, un objetivo compartido con la ciencia cognitiva interdisciplinar. “Pensar racionalmente” aspira a formalizar las “leyes del pensamiento” a través de la lógica matemática, aunque es un reto adaptar reglas lógicas a la complejidad contradictoria de la mente real.
Por su parte, “actuar humanamente” se ejemplifica en el test de Turing, donde un ordenador “aprueba” si engaña a un interlocutor haciéndole creer que es un ser humano. Esta aproximación requiere integrar conocimiento, razonamiento, lenguaje y aprendizaje. Finalmente, “actuar racionalmente” consiste en elegir la acción más adecuada para alcanzar un objetivo, dadas las circunstancias; Russell y Norvig consideran este enfoque como el más abarcador, pues engloba tanto la planificación lógica como la adaptación práctica. En este marco, un agente de IA opera autónomamente, percibe su entorno, persiste a lo largo del tiempo, se adapta al cambio y crea y persigue metas de forma independiente.
Figura 4
Los cuatro tipos de IA según Russell y Norvig

Conclusiones
En esta primera lección hemos trazado un recorrido que parte de los primeros mitos sobre autómatas y llega hasta los sofisticados sistemas de Deep Learning de la década de 2010. Al repasar cada década de avances —desde la formulación teórica de Turing y los talleres de Dartmouth hasta las victorias de Deep Blue y AlphaGo— hemos visto cómo el campo de la IA se ha nutrido de múltiples disciplinas y ha atravesado fases de euforia y desencanto. La comparación entre los sirvientes mecánicos de la mitología y los chatbots contemporáneos nos revela que la aspiración a crear agentes que trabajen para nosotros es tan antigua como la civilización.
Además, al distinguir autómatas, robots y agentes racionales, y al clasificar los enfoques de Russell y Norvig, disponemos ahora de un vocabulario preciso para describir las distintas facetas de la Inteligencia Artificial. Esta base histórica y conceptual nos permitirá en las próximas lecciones abordar con solidez los debates sobre riesgos, equidad, sostenibilidad y beneficios sociales. Con estas herramientas, estarás preparado para analizar críticamente cómo la IA moldea hoy nuestro mundo y para participar en la construcción de un futuro responsable.