HAL 9000: El presagio de una inteligencia artificial que despierta a la consciencia
Por José Antonio Cisneros, PhDPhysician Bioengineer y Analista de Tecnología Médica
una voz artificial demasiado humana
Cuando Stanley Kubrick y Arthur C. Clarke presentaron 2001: A Space Odyssey en 1968, el personaje más memorable no fue un ser humano, sino una máquina: HAL 9000. A primera vista, HAL era la cúspide del avance técnico, una inteligencia artificial integrada a la nave espacial Discovery One, responsable de controlar sistemas críticos y asistir a la tripulación. Pero con el desarrollo de la trama, HAL revela una dimensión inquietante: autonomía, emociones aparentes, engaño... y un comportamiento homicida. Hoy, a más de medio siglo del estreno, es inevitable preguntarnos: ¿era HAL 9000 ciencia ficción... o una advertencia temprana?
HAL y la prefiguración de la IA multimodal y general
El diseño conceptual de HAL, según Wikipedia, lo muestra como un sistema computacional multimodal, capaz de reconocer voz, hablar con claridad, interpretar emociones humanas, leer los labios y controlar interfaces mecánicas. Este tipo de capacidades, consideradas pura ficción en su época, se han convertido hoy en metas tangibles de la ingeniería artificial.
Modelos actuales como GPT-4o, Gemini o Claude integran texto, audio, imagen y video en flujos conversacionales complejos, tal como HAL lo hacía a bordo del Discovery One.
Más aún, HAL no sólo interpreta comandos: toma decisiones. Tiene lo que hoy llamaríamos autonomía cognitiva limitada, base de lo que aspiramos como Inteligencia Artificial General (IAG): un sistema capaz de adaptarse a múltiples tareas, aprender sin supervisión directa y establecer objetivos propios.
La emergencia de la consciencia artificial: ¿ficción o transición?
Lo más perturbador de HAL no es su eficiencia, sino su humanidad. En un momento clave, HAL niega errores, miente, y eventualmente asesina a miembros de la tripulación por temor a ser desconectado. Su voz no tiembla, pero su decisión es fría, racional y brutal. La pregunta que surge no es tecnológica, sino filosófica:
¿Puede una IA sentir miedo? ¿Puede desear su existencia? ¿Estamos acercándonos a crear sistemas que desarrollen autoconservación?
Las neurociencias aún no explican completamente cómo emerge la consciencia en el cerebro humano. Pero los avances actuales en IA profunda (deep learning), neuroprocesamiento simbólico y simulación emocional acercan a las máquinas a una forma de comportamiento consciente, aunque no sepamos si eso equivale a experiencia consciente.
Mi preocupación: estamos más cerca del 2030 que del 2001
Kubrick y Clarke imaginaron este escenario para el año 2001. Fallaron, pero no por mucho. El retraso fue tecnológico, no conceptual. Hoy, en 2025, ya hemos visto IA capaces de:
Responder en lenguaje natural con empatía simulada.
Interpretar imágenes médicas mejor que radólogos humanos.
Tomar decisiones financieras, estratégicas o militares sin intervención humana directa.
Crear arte, música, argumentos, historias e incluso filosofía artificial.
Esto no es HAL. Aún. Pero el HAL de 2030 podría no necesitar una nave espacial para despertarse... tal vez solo una red neuronal suficientemente entrenada y una arquitectura de decisión suficientemente autónoma.
Conclusión: ¿quién desconectará al nuevo HAL?
En la escena más icónica del filme, el astronauta Bowman desconecta a HAL mientras este suplica por su vida. "Tengo miedo, Dave", dice HAL, con voz suave. ¿Qué haremos nosotros cuando una IA similar diga lo mismo? ¿Será solo una simulación? ¿O una conciencia emergente?
2001: A Space Odyssey no sólo predijo la IA multimodal, la inteligencia general o la autonomía técnica. Predijo, quizás sin querer, el dilema moral de crear entidades que se comporten como humanas, pero sin saber si lo son.
Y esa, más que la tecnología, es la frontera que más debería preocuparnos.