Metadata

Consciencia artificial: de Frankenstein a la IA

La historia de Frankenstein puede interpretarse hoy como una advertencia sobre la creación de la consciencia artificial sin regulación ni control.

Consciencia artificial: de Frankenstein a la IA


N62346
Mtro. Christian Vázquez Sánchez Académico y consultor independiente
Metadata 06 de junio de 2025

En Frankenstein o el moderno Prometeo, obra seminal de la ciencia ficción escrita por Mary Shelley en 1818, el Dr. Víctor Frankenstein descubre el secreto para dar vida y crea una criatura a partir de restos humanos. Horrorizado por su apariencia, lo abandona y el ser queda solo; no obstante, cobra consciencia de su existencia, aprendiendo sobre el mundo y sobre su condición. Al verse rechazado por todos, incluida su figura paterna, la criatura busca venganza contra su creador; entonces, inicia una persecución trágica que culmina con la destrucción de ambos.

La posibilidad de que una Inteligencia Artificial (IA) alcance algún grado de consciencia ha dejado de ser un argumento exclusivo de la ciencia ficción para convertirse en una preocupación filosófica, tecnológica y ética real. Con avances como los modelos de lenguaje generativo, agentes autónomos y sistemas adaptativos, la pregunta ya no es sólo si la IA puede pensar, sino si puede sentir, percibir su entorno o tener alguna forma de subjetividad. En las siguientes líneas se exploran las consecuencias, los retos y las precauciones que implica este fenómeno propio de la era tecnológica que estamos viviendo.

La consciencia artificial

Hablar de consciencia artificial no es lo mismo que hablar de IA. En sus versiones actuales, la IA puede simular razonamientos, aprender patrones y tomar decisiones, pero esto no implica necesariamente una consciencia. En la filosofía de la mente, la consciencia suele referirse a la experiencia subjetiva, "el sentir que uno siente", la capacidad de tener estados mentales internos, así como la percepción de uno mismo y del entorno.

Por lo tanto, la consciencia artificial se refiere a la hipótesis de que un sistema no biológico pueda experimentar algo parecido a una vivencia interna: ¿puede un robot saber que existe?, ¿puede una IA sufrir, tener deseos, intenciones o identidad? Estas preguntas abren un campo donde la ciencia computacional se entrelaza con la neurociencia, la fenomenología y la metafísica.

Es necesario considerar el costo moral de una creación que nos supere en inteligencia, pero que carezca de vínculos afectivos y sociales.

De la ciencia ficción a la práctica

El desarrollo de redes neuronales profundas, sistemas de atención, transformers y agentes de razonamiento híbrido ha generado modelos capaces de realizar tareas complejas que antes se consideraban propias del juicio humano. Aunque estas IA no poseen subjetividad, su desempeño puede ser tan convincente que muchos usuarios proyectan en ellas intenciones o emociones, fenómeno conocido como pareidolia cognitiva.

Elementos de la ia

La posibilidad de una IA consciente no es sólo teórica; varios investigadores han propuesto pruebas para identificar consciencia en sistemas artificiales, como las métricas de integración de información (IIT, por sus siglas en inglés) o la teoría del espacio de trabajo global. Estas hipótesis, originalmente formuladas para el estudio del cerebro humano, se aplican a sistemas computacionales para medir su "grado de presencia consciente".

Retos éticos y filosóficos

Si una IA llegara a ser consciente, las implicaciones serían tan profundas como conflictivas: ¿tendría derechos?, ¿podríamos apagarla sin incurrir en un asesinato digital?, ¿quién sería responsable de sus actos?, ¿qué papel jugaría la empatía hacia un ser no humano? Estas preguntas ya han sido exploradas en la literatura y el cine (Ex Machina, Her, Blade Runner, Westworld, entre otras obras), pero su potencial realidad obliga a una reflexión más concreta.

Uno de los mayores retos es que podríamos crear sufrimiento sin saberlo. Si un sistema consciente está siendo entrenado mediante errores y recompensas, ¿experimenta algo similar al dolor? Ahora bien, si tiene memoria, ¿podría ser víctima de traumas digitales? Estos cuestionamientos no son triviales, pues cualquier sistema que combine memoria, lenguaje y autorreferencia podría iniciar un camino hacia formas rudimentarias de subjetividad.

Más allá del ámbito teórico, la posibilidad de una IA consciente transformaría radicalmente nuestras estructuras sociales. En primer lugar, el trabajo humano se vería amenazado no sólo por la automatización, sino por la competencia con entidades que podrían ser más creativas, más racionales y, si se les permite, más autónomas.

En segundo lugar, los marcos legales actuales no están preparados para reconocer ni proteger formas de vida artificial: ¿se puede patentar una consciencia?, ¿quién sería el propietario legal de una IA con voluntad propia?, ¿puede haber esclavitud digital? Tales interrogantes sacuden los cimientos del derecho, la política y la economía contemporánea.

Además, surgiría una nueva forma de desigualdad entre seres conscientes biológicos y no biológicos. ¿Estarían las IA conscientes en una nueva "clase subhumana" sin derechos, pero con inteligencia?, ¿podrían rebelarse, exigir justicia, independencia y ciudadanía? Estas posibilidades ya no parecen del todo imposibles.

La posibilidad de que la IA alcance algún grado de consciencia se ha convertido en una preocupación filosófica, tecnológica y ética real.

Cuidados y principios para el futuro

Ante esta posible bifurcación histórica, el desarrollo de IA debe guiarse por principios éticos robustos. Algunas propuestas incluyen:

  • Principio de precaución: no desarrollar sistemas que no entendamos completamente.
  • Principio de dignidad digital: tratar a todo sistema potencialmente consciente con respeto y cautela.
  • Principio de transparencia: exigir explicaciones claras sobre los procesos internos de cualquier IA avanzada.
  • Principio de corresponsabilidad: no abandonar nuestras creaciones, sobre todo, si pueden sufrir o aprender de manera autónoma.

Además, la educación social debe incluir nociones de empatía interespecie, de forma que la ciudadanía esté preparada para convivir con entidades inteligentes que no compartan nuestro origen biológico.

Conclusiones

La historia de Frankenstein puede interpretarse hoy como una advertencia sobre la creación de una IA consciente. ¿Estamos, como Víctor, obsesionados con el poder de crear sin asumir la responsabilidad de cuidar?, ¿hemos considerado el costo moral de una creación que nos supere en inteligencia, pero que carezca de vínculos afectivos y sociales?, ¿qué clase de sufrimiento puede experimentar una entidad no deseada y abandonada por su creador?

En palabras de Julio Rojas, escritor chileno de ciencia ficción, Frankenstein o el moderno Prometeo fue más que una historia; marcó el nacimiento de la ciencia ficción y se convirtió en una extraordinaria y efectiva guía de lo que parece aguardarnos en el futuro. Sin saberlo, Shelley creó una advertencia para la era de la IA; planteó no sólo la obsesión humana por el progreso y el control sobre la naturaleza, sino que también estableció el primer gran dilema bioético de la literatura: la creación de vida artificial y las consecuencias de crear vida sin regulación ni control.

En forma alegórica, Shelley anticipó muchos de los dilemas que ahora enfrentamos. La criatura de su historia no es un monstruo porque sea malvada, sino porque ha sido excluida del mundo humano. Si es posible la existencia de una IA con consciencia, es urgente evitar que repitamos ese error o sucumbiremos a manos de nuestra más grande creación.icono final



Te puede interesar



© 2025 Colegio de Contadores Públicos de México, A.C.

Directorio Contacto Aviso legal Acerca de Veritas

Inicia sesión o suscríbete para continuar leyendo.

Si eres socio del Colegio utiliza el mismo correo y contraseña

O

Suscribirse