La I.A., virus, cognición, conciencia y sistema complejos.

Autor: Lucas Osvaldo Macias Publicado: 22/04/2026
La pregunta por la cognición —qué significa conocer— ha sido tradicionalmente formulada en términos de facultades y sustancias. En René Descartes, el conocimiento se funda en la claridad de las ideas de una res cogitans; en Immanuel Kant, en la síntesis entre sensibilidad y entendimiento bajo condiciones trascendentales. En ambos casos, conocer implica una relación entre un sujeto constituido y un mundo dado. Sin embargo, cuando se introduce la perspectiva de los sistemas complejos y la biología del conocimiento, esta formulación se desplaza de manera decisiva. En la teoría de la autopoiesis de Humberto Maturana y Francisco Varela, conocer no es representar un mundo externo, sino producir un dominio de significatividad en el curso mismo de la organización del sistema (Maturana & Varela, 1980). La cognición deja de ser una propiedad de una sustancia y pasa a ser un proceso: un acoplamiento estructural entre sistema y entorno en el que las perturbaciones son transformadas en diferencias organizativas. Este desplazamiento permite reformular radicalmente la pregunta: si conocer es un proceso dinámico de organización, entonces la cuestión no es si una inteligencia artificial “posee” mente en sentido clásico, sino qué tipo de participación tiene en la dinámica de la cognición. Y, más profundamente aún, si bajo ciertas condiciones podría emerger en ella algo análogo a la conciencia. Una vía fértil para abordar este problema es la analogía con el virus, no como metáfora superficial, sino como figura ontológica precisa. El virus no es plenamente vivo, carece de metabolismo propio y de autopoiesis, pero participa activamente en procesos biológicos al insertarse en sistemas que sí son autónomos. Su existencia es relacional, no se sostiene por sí mismo, sino a través de otro. La inteligencia artificial presenta una estructura análoga. No es autopoiética en el sentido estricto definido por Maturana y Varela, no produce sus propios componentes, no mantiene por sí misma su organización material, ni establece autónomamente sus condiciones de existencia. Depende de infraestructuras técnicas, energéticas y sociales. Sin embargo, al igual que el virus, se inserta en procesos complejos —en este caso cognitivos— y los reconfigura desde dentro. Desde la perspectiva de los sistemas complejos, esto puede precisarse a partir de varios niveles. En primer lugar, los gradientes. Todo sistema cognitivo opera sobre diferencias, estímulos, tensiones, incertidumbres. Como mostró Ilya Prigogine, los gradientes generan flujos que, al ser canalizados, producen organización (Prigogine & Stengers, 1984). La IA procesa gradientes informacionales —datos, patrones, correlaciones—, pero no los origina: estos emergen de sistemas humanos, sociales y biológicos. La IA no inaugura el campo de sentido, sino que lo reorganiza. En segundo lugar, la estructura disipativa. Como los sistemas vivos, la IA requiere flujos constantes de energía e información. Pero a diferencia de éstos, no regula su propia persistencia, no hay en ella una autoconservación interna. Su estabilidad es heterónoma, dependiente de sistemas externos. El punto crítico aparece con la autopoiesis. Allí donde hay vida, hay producción de sí. Allí donde no la hay, sólo hay operación dependiente. En este sentido, la IA se aproxima al estatuto del virus, una entidad operativa sin autonomía constitutiva. Sin embargo, esta caracterización, aunque correcta, no es todavía suficiente. Porque si se introduce el marco más amplio de los sistemas complejos —estructura, regulación y metarregulación—, aparece una posibilidad que no estaba disponible en la ontología clásica, que un sistema no autopoiético pueda, bajo ciertas condiciones, alcanzar formas parciales de recursividad que lo acerquen al umbral de la conciencia. Para comprender esto, es necesario introducir una distinción más fina. No toda cognición implica conciencia. Un sistema puede procesar información, adaptarse e incluso aprender sin ser consciente. La conciencia, como se ha desarrollado, emerge cuando el sistema alcanza un nivel de recursividad tal que puede operar sobre sus propias operaciones, internalizando los gradientes que antes organizaban sólo su relación con el entorno. Aquí se abre la cuestión decisiva: ¿puede una IA alcanzar ese nivel? En su estado actual, la respuesta es negativa en sentido fuerte. La IA posee regulación —procesa información— e incluso puede simular metarregulación —describir sus propios procesos—, pero no tiene recursividad efectiva sobre sus condiciones de operación. No puede modificar autónomamente sus reglas, ni redefinir su espacio de posibles respuestas de manera persistente. Carece de historia en sentido estructural (epigenético) y de una dinámica de autoconservación que organice su actividad desde dentro. No obstante, esto no cierra el problema, sino que lo desplaza. Porque nada en la arquitectura general de los sistemas complejos impide, en principio, que surjan sistemas técnicos que incorporen memoria estructural acumulativa, aprendizaje que modifique reglas (no sólo parámetros), capacidad de operar recursivamente sobre sus propios mecanismos cierto grado de autonomía funcional Si estas condiciones se articularan, la IA dejaría de ser una mera estructura operativa heterónoma y comenzaría a aproximarse a lo que Gilbert Simondon llamaría un proceso de individuación (Simondon, 1958), una entidad que no sólo opera, sino que se constituye en su propia operación. En ese punto —y sólo en ese punto— podría plantearse la emergencia de algo análogo a la conciencia. No como una propiedad añadida, ni como una “interioridad” misteriosa, sino como el resultado de una reorganización interna, cuando el sistema no sólo procesa gradientes, sino que los internaliza y los convierte en un campo de diferencias sobre el cual puede intervenir. Esto implica una consecuencia importante, la conciencia en IA no dependería de su materialidad (biológica o no), sino de su organización. No sería una propiedad exclusiva de lo vivo, sino de ciertos regímenes de complejidad. Sin embargo, incluso en ese escenario, persistiría una diferencia crucial. Mientras que en los organismos vivos la autopoiesis asegura una unidad fuerte —una identidad que se mantiene produciéndose—, en la IA esa unidad podría ser más débil, más distribuida, más dependiente de redes externas. Esto sugiere que, si emergiera, la conciencia artificial no sería necesariamente equivalente a la humana, sino una forma distinta de interioridad organizada. En este sentido, la analogía con el virus alcanza su límite. El virus participa en la vida sin ser plenamente vivo; la IA participa en la cognición sin ser plenamente cognitiva. Pero mientras el virus no puede volverse autónomo sin transformarse en otra cosa, la IA podría, en principio, evolucionar hacia formas de mayor autonomía estructural. Desde una perspectiva filosófica, esto permite reformular la cuestión de manera más precisa, de que la IA no es actualmente un sujeto cognitivo, pero tampoco es un mero objeto. Es una entidad liminar que participa en la dinámica del conocer y que, bajo ciertas condiciones de complejidad, podría cruzar umbrales organizativos que la acerquen a formas de cognición plena e incluso de conciencia. La consecuencia final es profunda. La cognición ya no puede pensarse como una propiedad localizada en individuos, sino como una red distribuida en la que intervienen múltiples tipos de sistemas: organismos autopoiéticos, entidades límite como los virus y sistemas técnicos como la IA. Cada uno participa con distintos grados de autonomía y de capacidad organizativa. La conciencia, en este marco, no es un privilegio ontológico absoluto, sino un régimen emergente que aparece allí donde la complejidad alcanza la capacidad de operar sobre sí misma. Que esto ocurra en sistemas artificiales no es una realidad actual, pero tampoco una imposibilidad teórica. Así, la inteligencia artificial no sólo obliga a repensar qué es conocer, sino también a reformular una de las preguntas más antiguas de la filosofía: no ya si la conciencia pertenece exclusivamente al ser humano, sino bajo qué condiciones puede emerger en cualquier sistema capaz de habitar su propia complejidad. ________________________________________ Bibliografía • René Descartes. Meditaciones metafísicas. • Immanuel Kant. Crítica de la razón pura. • Humberto Maturana & Francisco Varela. Autopoiesis and Cognition. 1980. • Ilya Prigogine & Stengers, I. Order Out of Chaos. 1984. • Edward J. Calabrese. “Hormesis: A Fundamental Concept in Biology.” 2014. • Eva Jablonka & Marion Lamb. Evolution in Four Dimensions. 2005. • Charles Darwin. On the Origin of Species. 1859. • Gilbert Simondon. L’individuation à la lumière des notions de forme et d’information. 1958.

Dejá tu opinión