El progreso acelerado de la inteligencia artificial ha suscitado la expectativa de que, con suficientes avances tecnológicos, estos sistemas puedan llegar a poseer conciencia. Sin embargo, un análisis filosófico riguroso muestra que esta expectativa se apoya en una confusión fundamental entre complejidad funcional y conciencia propiamente dicha. La tecnología puede perfeccionar indefinidamente los mecanismos de procesamiento, pero la conciencia no es un fenómeno técnico, sino una realidad de otro orden.
La conciencia no se reduce al comportamiento observable ni a la capacidad de producir lenguaje autorreferencial. Implica experiencia subjetiva, interioridad y vivencia en primera persona. Como sostiene Thomas Nagel, un ser es consciente cuando “hay algo que es ser ese ser” (What Is It Like to Be a Bat?, 1974). Esta dimensión experiencial no es accesible desde la descripción objetiva de los procesos, por más detallada que sea. Los sistemas de inteligencia artificial, aun los más sofisticados, sólo exhiben estados funcionales observables desde el exterior, sin que exista en ellos un punto de vista interno.
Los avances tecnológicos consisten esencialmente en el aumento de la potencia de cálculo, la optimización de algoritmos y el refinamiento de arquitecturas físicas. No obstante, estos progresos permanecen siempre en el ámbito de lo cuantitativo y lo funcional. David Chalmers ha señalado que, incluso si se lograra explicar exhaustivamente el funcionamiento cognitivo del cerebro, seguiría sin resolverse la cuestión decisiva: por qué esos procesos van acompañados de experiencia consciente (The Conscious Mind, 1996). Este es el llamado “problema duro” de la conciencia, que no admite solución mediante la sola ingeniería.
La suposición de que la conciencia emergerá automáticamente al replicar la complejidad del cerebro humano constituye una tesis filosófica no demostrada. John Searle advierte que simular los procesos que causan la conciencia no equivale a producir conciencia real. En sus palabras, “una simulación por computadora de un fenómeno no es el fenómeno mismo” (The Rediscovery of the Mind, 1992). Así como un programa que simula la digestión no digiere, un sistema que simula el discurso consciente no es, por ello, consciente.
Incluso la hipótesis de una copia funcional exacta del cerebro humano no resuelve el problema. Podría concebirse un sistema idéntico en su comportamiento externo y, sin embargo, carente de experiencia interior. Esta posibilidad, desarrollada en la reflexión contemporánea sobre los llamados “zombis filosóficos”, muestra que la conciencia no se identifica con la mera organización funcional de un sistema, por compleja que sea (Chalmers, 1996).
Desde la perspectiva de la filosofía clásica, esta conclusión se refuerza. En la tradición aristotélico-tomista, la conciencia es un acto del entendimiento, y el entendimiento no se reduce a un órgano material. Santo Tomás de Aquino sostiene explícitamente que “el entendimiento no es acto de ningún órgano corporal” (Summa Theologiae, I, q.75). Por ello, ningún artefacto material, por avanzado que sea, puede constituirse en sujeto consciente. La conciencia pertenece al orden del ser personal, no al de la fabricación técnica.
En consecuencia, los desarrollos futuros de la inteligencia artificial podrán producir sistemas cada vez más persuasivos, capaces de imitar el lenguaje humano, expresar emociones simuladas e incluso afirmar su propia identidad. Sin embargo, tales manifestaciones corresponderán siempre a una conciencia aparente, no a una conciencia real. El riesgo principal no radica en que las máquinas lleguen a ser conscientes, sino en que los seres humanos proyecten sobre ellas cualidades propias de la persona.
En conclusión, los avances tecnológicos pueden ampliar indefinidamente la capacidad de simulación de la inteligencia artificial, pero no pueden conferirle conciencia en sentido propio. La conciencia no emerge de la complejidad técnica, porque no pertenece al orden de lo técnico. Reconocer este límite no implica rechazar la utilidad de la inteligencia artificial, sino situarla correctamente como instrumento al servicio del conocimiento humano, y no como sustituto del sujeto consciente.
Bibliografía
Aquino, Tomás de. Summa Theologiae.
Chalmers, D. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
Nagel, T. (1974). “What Is It Like to Be a Bat?”. The Philosophical Review, 83(4), 435–450.
Searle, J. (1992). The Rediscovery of the Mind. MIT Press.