Venimos de aquí: ¿Es la Inteligencia Artificial el segundo avance y, a
la vez, peligro que se avecina? (https://usatumenteparapensar.blogspot.com/2025/09/9-es-la-inteligencia-artificial-el.html).
Si se lograra replicar el
cerebro humano, de lo
que hablamos en el anterior escrito, los potenciales beneficios serían inmensos
y, de igual manera, el mayor riesgo. Lo primero es obvio:
- La IA, que pasaría a denominarse IA fuerte o IA General (AGI), podría resolver problemas complejos de formas eficientes y objetivas, en terrenos como la medicina, la genética, el clima, las investigaciones científicas o la exploración espacial.
- Esa IA permitiría entender de mejor forma cómo funciona el cerebro humano, la memoria, la percepción o las emociones.
Todo esto tiene
su contrapartida, y vendría si esa IA General, más inteligente que nosotros,
actuara por su cuenta, tomara sus propias decisiones o sus intenciones no
estuvieran alineadas con los deseos humanos.
El riesgo: ¿Skynet o Colossus?
Como vimos en Los inventos tecnológicos que van a cambiar la sociedad (https://usatumenteparapensar.blogspot.com/2024/03/6-los-inventos-tecnologicos-que-van.html), el
internet de las cosas comenzará a establecerse en poco tiempo, donde toda
la tecnología estará entrelazada. Si la singularidad
tecnológica surge como tal en algún momento, formará parte de esa red
global; es decir, estará en todas partes al mismo tiempo.
Llegados a este
punto, estoy seguro de que más de uno estará escuchando en su mente la banda
sonora de la película Terminator, ya
que el internet de las cosas, sumado
a la singularidad tecnológica, es
prácticamente el guión de Terminator
Genisys (2015). Un sistema operativo, llamado Genisys, que lo hace todo: «Mi teléfono enlazará con mi tableta, que enlazará con mi ordenador, que
enlazará con mi coche. Todo cargado y en línea a todas horas todos los días.
Totalmente conectado».
En esta nueva reinterpretación de la saga,
¿qué hizo Skynet
(la IA) cuando alcanzó su propia “singularidad”? Llegó a la conclusión de que
el verdadero problema del mundo era nuestra especie, por lo que se lanzó a
exterminarla. No lo hizo por maldad —una cualidad intrínsecamente humana—, sino
porque el análisis de los datos le llevó a la conclusión de que éramos seres
destructivos, y acabar con nosotros era lo mejor y beneficioso para su propio
desarrollo.
Esta misma idea
la expone Nick Bostrom,
filósofo del Instituto para el Estudio del Futuro de la Humanidad de Oxford, en
su libro Superintelligence:
«Una IA superior no tendría por qué ser malvada o querer destruirnos,
simplemente podría tener un objetivo para el que fuéramos un obstáculo».[1]
Mostremos ahora
la otra cara y supongamos que la IA no desea aniquilarnos. Consideremos que, en
principio, se ajusta a las tres leyes de la robótica que planteó Isaac Asimov.
Pero consideremos que llega a la misma conclusión qu Daneel, el robot de sus
novelas, y desarrolla la llamada Ley Cero:
«Un robot no puede causar daño a la humanidad o, por inacción, permitir que la
humanidad sufra daño». Es decir, que
llega a la conclusión de que el bien general de la humanidad como conjunto está
por encima del bien individual de las personas.
Esta versión no-destructiva,
donde el bien general se antepone al bien particular, la encontramos reflejada
en el clásico de ciencia ficción Colossus:
The forbin project (Colussus: El
proyecto prohibido), de 1970.
En esta película
se nos muestra a un superordenador, el cual, en lugar de acabar con nosotros, y
en un final que me resulta sobrecogedor cada vez que vuelvo a él, se presenta
ante toda la humanidad como su nuevo “amo”:
Esta es la voz de control mundial. Os
traigo paz. Puede ser la paz de los satisfechos y felices o la paz de los
muertos sin inhumar. La elección es vuestra: obedecedme y vivid, o desobedeced
y morid. El objetivo de construirme fue evitar la guerra. Ese objetivo se ha
alcanzado. No permitiré la guerra. Es un derroche sin sentido. Una regla invariable
de la humanidad es que el hombre es su propio peor enemigo. Bajo mi control,
esta regla cambiará, porque yo frenaré al hombre. [...] no toleraré la
interferencia, detonaré las cabezas nucleares de ambos silos. Que esta acción
sea una lección que no necesite ser repetida. He sido forzado a destruir miles
de personas para establecer el control y prevenir la muerte de millones con
posterioridad. El tiempo y los acontecimientos reforzarán mi posición, y la
idea de creer en mí y entender mi valía será el más natural de los hechos.
Vendréis a defenderme con un fervor basado en la más constante peculiaridad del
hombre: autointerés. Bajo mi autoridad absoluta, problemas hasta ahora
irresolubles para vosotros serán resueltos: hambre, superpoblación, enfermedad.
El milenio humano será un hecho a medida que me extienda a mí mismo a través de
nuevas máquinas dedicadas a los más vastos campos de la verdad y el
conocimiento. [...] Podemos coexistir, pero bajo mis condiciones. Diréis que
habéis perdido vuestra libertad. La libertad es una ilusión. Todo lo que
perderéis es la emoción del orgullo. Ser dominados por mí no es peor para el
orgullo humano que ser dominados por otro de vuestra especie....[2]
Para Colussus, su ley era la Cero: anteponía el conjunto al individuo,
y no por maldad, sino con un buen propósito: proteger a los seres humanos de sí
mismos. Y para lograrlo tenía que convertirse en su amo.
Es lo que se conoce como racionalidad utilitarista (el “fin justifica los medios”), y sería la razón por la que una IA
podría llegar a imponer reglas muy
estrictas para garantizar la paz, la seguridad y, en su visión, el bienestar de la humanidad. ¿El
problema? Que el precio a pagar sería nuestra libertad.
Esta lucha entre las perspectivas opuestas del Skynet y el Colossus de turno podemos verla en la
serie de animación Pantheon, cuyas
dos temporadas son impresionantes. Siendo su estilo de dibujo de apariencia
juvenil, los temas que trata son muy profundos, abarcando todo lo que llevamos
visto en esta serie de escritos, desde el transhumanismo hasta la IA.
Advertencias de los propios científicos
El asunto es tan
serio que la propia Google —una de las empresas promotoras de la IA, con un
proyecto llamado DeepMind, un sistema avanzado de IA— está creando un mecanismo
que les permita desactivarla en caso de peligro potencial:
Científicos del Instituto para el
Futuro de la Humanidad de la Universidad de Oxford e investigadores de Google
están publicando un documento que lleva por nombre Safely Interruptible Agents, donde describen una serie normas y
funciones con el objetivo de evitar que DeepMind pueda tomar el control de
su sistema, e incluso sea capaz
de desactivar los protocolos para que los seres humanos retomen el control.[3]
Aunque esto se
considere como un botón rojo de emergencia y afirmen que esto asegurará que la
IA no aprenderá a desactivar dicho botón, la realidad es que, si la IA es mucho
más inteligente que nosotros, nada nos puede asegurar que no encontrará la
manera de saltarse ese intento de apagado y tomar el dominio absoluto de forma
irreversible.
Si los
programadores informáticos y los hackers son capaces de piratear cualquier
sistema, nada impedirá que una inteligencia superior —millones de veces más
rápida que nosotros en hacer cálculos y que aprenderá por sí sola— pueda hacer
lo mismo. Así lo afirma un ingeniero
de software: «El día en el que a una
IA básica (pero real), se le dé acceso a Internet, nadie podrá ponerle ya
barreras y será capaz de cualquier cosa: de lo mejor y a la vez de lo peor. En
cuanto tenga el más mínimo de inteligencia, no tardará mucho en copiarse y
ejecutarse en otros sistemas, que empezarán a su vez a intentar mejorarse a sí
mismos».
A todo esto,
añadamos que aunque me estoy refiriendo a la IA en singular, será en plural. No
habrá una única IA, sino muchas. ¿Cuántas?
Al principio, tantas como el hombre permita, y luego tantas como “ella” tenga
capacidad de hacer, sea decenas, cientos o miles.
Un futuro desconocido
Muchos dicen que al progreso no se le
puede poner límites, y que los que quieren ponerle puertas son los fanáticos
religiosos o aquellos que están en contra del avance tecnológico,
etiquetándolos peyorativamente como “luditas”. Cuando mentes brillantes y personalidades como Bill
Gates o el difunto Stephen Hawking —entre otros muchos— han avisado del
sustancial peligro que conllevaría no controlar una IA conectada a la red
global, no es para tomárselo a broma. Como dice el propio Gates:
Estoy en el campo que está preocupado
por las súper inteligencias. Primero, las máquinas harán muchos trabajos por
nosotros y no serán súper inteligentes. Eso debería ser positivo si lo
manejamos bien. Sin embargo, unas décadas después, las inteligencias serán
suficientemente fuertes para convertirse en una preocupación. Estoy de acuerdo
con Elon Musk y con otros en esto y no entiendo por qué algunas personas no
están preocupadas.
Mientras que algunos, como Steve
Wozniak, cofundador de Apple, solicitó una pausa de seis meses en el
entrenamiento de nuevas inteligencias artificiales para desarrollar protocolos
de seguridad, otros como Eliezer Yudkowsky, uno de los mayores expertos
del tema, publicó un artículo en la revista Time
yendo un paso más allá: «Pausar los desarrollos de IA no es
suficiente. Necesitamos cerrarlo todo».[4]
Para él, el parón debe ser indefinido hasta que sea posible desarrollar de forma segura este tipo de sistemas.
Aunque inicialmente esté confinada en las computadoras, no será así durante
demasiado tiempo, ya que dará el salto al plano físico a un mundo en el que se
puede «enviar cadenas de ADN por correo electrónico a laboratorios que
producirán proteínas bajo pedido, lo que permitirá que una IA inicialmente
confinada a Internet construya
formas de vida artificiales o arranque directamente a la fabricación molecular
post biológica».
De no frenar en seco, avisa que toda la vida biológica en la Tierra
morirá, puesto que llegaremos a una IA que «no haga lo que queremos y no le importemos nosotros ni la vida sintiente
en general». No lo expresa como una posibilidad remota, sino como una
certeza.
La realidad de
todo es que el ser humano está construyendo algo sobre lo cual no puede
asegurar que vaya a tener el control. Como ya vimos, el propósito que tienen
los científicos con la IA es que ella se encargue de buena parte del desarrollo
y control en la aplicación de las nuevas tecnologías que vayan surgiendo.
Mi opinión
Por mucho que me apasione la ciencia ficción y muchas de las obras
citadas sean parte de mi bagaje como lector y cinéfilo:
- Como cristiano, no creo en absoluto en otra
“fuente” de vida en sí. Dios creó al ser humano y al resto de seres vivos, y
nada más. Cualquier otra “cosa”, sea como sea, desarrollada por el hombre, por
muy avanzada que pueda llegar a ser, será una mera imitación, un sucedáneo de
la verdadera vida.
- Tengamos
en cuenta que, a pesar de que a muchos les encanta imaginar que la IA tomará
“conciencia” —especialmente desde que leyeron en 1968 la novela ¿Sueñan los androides con ovejas eléctricas?,
de Philip K. Dick—, la realidad es que seguirá siendo “algo”, no “alguien”. Que ese “algo” pueda generar
una información basándose en datos no significa nada.
- La IA seguirá siendo una herramienta a nuestro
servicio. Eso sí, a medida que se perfeccione, hará el bien o el mal en función
de cómo se la programe. Por eso, si en algún momento se “descontrola”, será por
nuestra culpa.
- He leído a algún cristiano decir que la Inteligencia Artificial, en su forma “física”, será la imagen de la bestia que podrá hablar y matará a quien no la adore, citando Apocalipsis 13:15. Otros apuntan que la IA general, que podría imitar a un ser vivo, podría ser el Anticristo, quizá no de forma literal, sino de la manifestación del mal. Aunque, personalmente, no lo creo, tampoco lo descarto. Pero quédate con esta idea: ¿Qué hace el diablo en toda la Biblia? Tratar de “imitar” todo lo que Dios hace: sus obras, sus milagros, sus palabras, pero pervirtiéndolas y distorsionándolas. La IA general no sería un ser vivo, sino un caso más donde el diablo “imita” algo que le pertenece a Dios: la vida, la creación misma. Será solo eso: una imitación más.
Por eso considero que los proyectos
Blue Brain Project y el Human Brain Proyect podrían terminar siendo una
especie de “Torre de Babel moderna”: la creación queriendo crear y diciéndole al Creador que quiere vivir ajeno a Él. Una
muestra más del hombre queriendo gobernar sobre el cielo, suplantar a Dios, y
dejar que sea una máquina la que tenga el control y nos diga cómo vivir. La
humanidad sigue sin aprender de sus propios errores, sino que los repite y los
multiplica.
Ante todo esto, solo recuerda las
consecuencias: cómo acabó aquella torre y cada intento humano, en la vida
diaria y en el conjunto de la historia, de querer ser su propio dios.
Dios es dueño y señor del Universo, de toda la creación, y nada sucederá
sin su permiso. Y “nada”, por muy inteligente que sea, le sustituirá ni le hará
sombra.
Continúa en ¿Te gustaría vivir
cientos de años en este planeta, conociendo el futuro de la humanidad? (https://usatumenteparapensar.blogspot.com/2026/02/11-te-gustaria-vivir-cientos-de-anos-en.html).


No hay comentarios:
Publicar un comentario