Venimos de aquí: ¿Es
la Inteligencia Artificial el segundo avance y, a la vez, peligro que se
avecina? (https://usatumenteparapensar.blogspot.com/2025/09/9-es-la-inteligencia-artificial-el.html).
Si se lograra replicar el cerebro humano, de lo que hablamos en el anterior escrito, los
potenciales beneficios serían inmensos y, de igual manera, el riesgo. Lo
primero es obvio:
- La IA, que pasaría a denominarse “IA fuerte” o “IA
General (AGI)”, podría resolver problemas complejos de formas más eficientes y
objetivas, en terrenos como la medicina, la ética, la genética, el clima, las
investigaciones científicas o la exploración espacial.
- Esa IA permitiría entender de mejor forma cómo funciona
el cerebro humano, la memoria, la percepción o las emociones.
Todo esto tiene su contrapartida, y vendría si esa IA
General, más inteligente que nosotros, actuara por su cuenta, tomara sus
propias decisiones o sus intenciones no estuvieran alineadas con los deseos
humanos.
El riesgo: ¿Skynet
o Colossus?
Como vimos en “Los inventos tecnológicos que van a cambiar la sociedad” (https://usatumenteparapensar.blogspot.com/2024/03/6-los-inventos-tecnologicos-que-van.html), el internet
de las cosas va a empezar a establecerse en poco tiempo, donde toda la
tecnología estará entrelazada. Si la “singularidad tecnológica” surge como tal
en algún momento, formará parte de esa red global; es decir, estará en todas
partes al mismo tiempo.
Llegados a este punto, estoy seguro de que más de uno
estará escuchando en su mente la banda sonora de la película Terminator, ya que “el internet de las
cosas”, sumado a la “singularidad tecnológica”, es prácticamente el guión de Terminator Genisys (2015). Un sistema
operativo, llamado Genisys, que lo
hace todo: “Mi teléfono enlazará con mi tableta, que enlazará con mi
ordenador, que enlazará con mi coche. Todo cargado y en línea a todas horas
todos los días. Totalmente conectado”.
En esta famosa saga, ¿qué hizo Skynet (la IA) cuando
alcanzó su propia “singularidad”? Llegó a la conclusión de que el verdadero
problema del mundo era nuestra especie, por lo que se lanzó a exterminarla. No
lo hizo por maldad –una cualidad intrínsecamente humana-, sino porque el
análisis de los datos le llevó a la conclusión de que éramos seres destructivos,
y acabar con ellos era lo mejor y beneficioso para su propio desarrollo. Esta
misma idea la expone Nick Bostrom,
filósofo del Instituto para el Estudio del Futuro de la Humanidad de Oxford, en
su libro Superintelligence,
dice: “Una IA superior no tendría por qué ser malvada o querer
destruirnos, simplemente podría tener un objetivo para el que fuéramos un
obstáculo”[1].
Mostremos ahora la otra cara y supongamos que la IA no
desea aniquilarnos. Consideremos que, en principio, se ajusta a las tres leyes
de la robótica que planteó Isaac Asimov y que citamos en el mismo artículo que
enlacé hace tres párrafos. Pero planteemos que llega a la misma conclusión del
Robot Daneel de sus novelas y desarrolla la llamada Ley Cero: “Un robot no puede
causar daño a la humanidad o, por inacción, permitir que la humanidad sufra
daño”. Es decir, que llega a la conclusión de que el bien general de la
humanidad como conjunto está por encima del bien individual de las personas.
Esta versión no-destructiva, donde el bien general se
antepone al bien particular, la encontramos reflejada en el clásico de ciencia
ficción Colossus: The forbin project (Colussus:
El proyecto prohibido), de 1970.
En esta película se nos muestra a un superordenador, el
cual, en lugar de acabar con nosotros, y en un final que me resulta sobrecogedor
cada vez que lo veo, se presenta ante toda la humanidad como su nuevo amo con
estas palabras: “Esta es la voz de
control mundial. Os traigo paz. Puede ser la paz de los satisfechos y felices o
la paz de los muertos sin inhumar. La elección es vuestra: obedecedme y vivid,
o desobedeced y morid. El objetivo de construirme fue evitar la guerra. Ese
objetivo se ha alcanzado. No permitiré la guerra. Es un derroche sin sentido.
Una regla invariable de la humanidad es que el hombre es su propio peor
enemigo. Bajo mi control, esta regla cambiará, porque yo frenaré al hombre. [...]
no toleraré la interferencia, detonaré las cabezas nucleares de ambos silos.
Que esta acción sea una lección que no necesite ser repetida. He sido forzado a
destruir miles de personas para establecer el control y prevenir la muerte de
millones con posterioridad. El tiempo y los acontecimientos reforzarán mi
posición, y la idea de creer en mí y entender mi valía será el más natural de
los hechos. Vendréis a defenderme con un fervor basado en la más constante
peculiaridad del hombre: autointerés. Bajo mi autoridad absoluta, problemas
hasta ahora irresolubles para vosotros serán resueltos: hambre, superpoblación,
enfermedad. El milenio humano será un hecho a medida que me extienda a mí mismo
a través de nuevas máquinas dedicadas a los más vastos campos de la verdad y el
conocimiento. [...] Podemos coexistir, pero bajo mis condiciones. Diréis que
habéis perdido vuestra libertad. La libertad es una ilusión. Todo lo que
perderéis es la emoción del orgullo. Ser dominados por mí no es peor para el
orgullo humano que ser dominados por otro de vuestra especie...”[2].
Para Colussus,
su ley era la Cero: anteponía el
conjunto al individuo, y no por maldad, sino con un buen propósito: proteger a
los seres humanos de sí mismos. Y para lograrlo tenía que convertirse en el amo
de ellos.
Es lo que se conoce
como racionalidad utilitarista (el “fin justifica los medios”), y sería la razón por
la que una IA podría llegar a imponer reglas muy estrictas
para garantizar la paz, la seguridad y, en su visión, el bienestar de la humanidad. ¿El
problema? Que el precio a pagar sería nuestra libertad.
Esta lucha entre las
perspectivas opuestas del Skynet y el Colossus
de turno podemos verla en la serie de animación “Pantheon”, cuyas dos
temporadas son impresionantes. Siendo su estilo de dibujo muy corriente y con una
apariencia juvenil, los temas que trata son muy profundos, abarcando todo lo
que llevamos visto en esta serie de escritos, desde el transhumanismo hasta la
IA.
Advertencias
de los propios científicos
El asunto es tan serio que la propia Google –una de
las empresas promotoras de la IA, con un proyecto llamado DeepMind, un sistema
avanzado de IA- está creando un mecanismo que les permita desactivarla en caso
de peligro potencial: “Científicos del Instituto
para el Futuro de la Humanidad de la Universidad de Oxford e investigadores de
Google están publicando un documento que lleva por nombre ´Safely Interruptible
Agents`, donde describen una serie normas y funciones con el objetivo de evitar
que DeepMind pueda tomar el control de su sistema, e incluso sea capaz de desactivar los
protocolos para que los seres humanos retomen el control”[3].
Aunque esto se considere como un botón rojo de
emergencia y afirmen que esto asegurará que la IA no aprenderá a desactivar
dicho botón, la realidad es que, si la IA es mucho más inteligente que
nosotros, nada nos puede asegurar que no encontrará la manera de saltarse ese
intento de apagado y tomar el dominio absoluto de forma irreversible. Si los
programadores informáticos y los hackers son capaces de piratear cualquier
sistema, nada impedirá que una inteligencia superior –millones de veces más
rápida que nosotros en hacer cálculos y que aprenderá por sí sola- pueda hacer
lo mismo. Así lo afirma un ingeniero
de software: “El día en el que a una IA
básica (pero real), se le dé acceso a Internet, nadie podrá ponerle ya barreras
y será capaz de cualquier cosa: de lo mejor y a la vez de lo peor. En cuanto
tenga el más mínimo de inteligencia, no tardará mucho en copiarse y ejecutarse
en otros sistemas, que empezarán a su vez a intentar mejorarse a sí mismos”.
A todo esto, añadamos que, aunque me estoy refiriendo
a la IA en singular, será en plural. No habrá una única IA, sino muchas. ¿Cuántas? Al principio, tantas como el
hombre permita, y luego tantas como “ella” tenga capacidad de hacer, sea
decenas, cientos o miles.
Un futuro desconocido
Muchos dicen que al progreso no se le puede poner
límites, y que los que quieren ponerle puertas son los fanáticos religiosos o
aquellos que están en contra del avance tecnológico. Ni muchos menos. Cuando
mentes brillantes y personalidades como Bill Gates o el difunto Stephen Hawking
–entre otros muchos- han avisado del sustancial peligro que conllevaría no
controlar una IA conectada a la red global, no es para tomárselo a broma. Como
dice el propio Gates: “Estoy en el campo
que está preocupado por las súper inteligencias. Primero, las máquinas harán
muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser
positivo si lo manejamos bien. Sin embargo, unas décadas después, las
inteligencias serán suficientemente fuertes para convertirse en una
preocupación. Estoy de acuerdo con Elon Musk y con otros en esto y no entiendo
por qué algunas personas no están preocupadas”.
Mientras que algunos,
como Steve Wozniak, cofundador de
Apple, solicitó una pausa de seis meses en el entrenamiento de nuevas
inteligencias artificiales para desarrollar protocolos de seguridad, otros como
Eliezer Yudkowsky, uno de los mayores expertos del tema, publicó un
artículo en la revista Time yendo un paso más allá: “Pausar los desarrollos de IA no
es suficiente. Necesitamos cerrarlo todo”[4]. Para él, el parón
debe ser indefinido hasta que sea
posible desarrollar de forma segura este tipo de sistemas, ya que, más temprano
que tarde, será más inteligente que el ser humano, pensando a millones de veces
la velocidad humana, inicialmente confinada en las computadoras pero que no
se mantendría durante demasiado tiempo, ya que daría el salto al plano físico. En
un mundo en el que puedes “enviar cadenas de ADN por correo electrónico a
laboratorios que producirán proteínas bajo pedido, lo que permite que una IA
inicialmente confinada a Internet construya
formas de vida artificiales o arranque directamente a la fabricación molecular
post biológica”.
De no frenar en seco,
avisa que toda la vida biológica en la Tierra morirá, puesto que llegaremos a
una IA que “no haga lo que queremos y
no le importemos nosotros ni la vida sintiente en general”. No lo
expresa como una posibilidad remota, sino como una certeza.
La realidad de todo es que el ser humano está
construyendo algo sobre lo cual no puede asegurar que vaya a tener el control.
Como ya vimos, el propósito que tienen los científicos con la IA es que ella se
encargue de buena parte del desarrollo y control en la aplicación de las nuevas
tecnologías que vayan surgiendo.
Mi opinión
Por mucho que me
apasione la ciencia ficción y muchas de las obras citadas sean parte de mi
bagaje como lector y cinéfilo:
1) Como cristiano, no
creo en absoluto en otra “fuente” de vida en sí. Dios creó al ser humano y al
resto de seres vivos, y nada más. Cualquier otra “cosa”, sea como sea,
desarrollada por el hombre, por muy avanzada que pueda llegar a ser, será una mera
imitación, un sucedáneo de la verdadera vida.
2) Tengamos en cuenta que, a pesar de que a muchos les
encanta imaginar que la IA tomará “conciencia” –especialmente desde que leyeron
en 1968 la novela ¿Sueñan los androides
con ovejas eléctricas?, de Philip K. Dick-, la realidad es que seguirá siendo “algo”, no “alguien”. Que ese
“algo” pueda generar una información basándose en datos no significa
nada.
3) La IA seguirá
siendo una herramienta a nuestro servicio. Eso sí, a medida que se perfeccione,
hará el bien o el mal en función de cómo se la programe. Por eso, si en algún
momento se “descontrola”, será por nuestra culpa.
4) He leído a algún
cristiano decir que la Inteligencia Artificial, en su forma “física”, será la
imagen de la bestia que podrá hablar y matará a quien no la adore, citando
Apocalipsis 13:15. Otros apuntan que la IA general, que podría imitar a un ser vivo, podría ser el
Anticristo, quizá no de forma literal, sino de la manifestación del mal.
Aunque, personalmente, no lo creo, tampoco lo descarto. Pero quédate con esta
idea: ¿Qué hace el diablo en toda la
Biblia? Tratar de “imitar” todo lo que Dios hace: sus obras, sus milagros, sus
palabras, pero pervirtiéndolas y distorsionándolas. La IA general no sería un
ser vivo, sino un caso más donde el diablo “imita” algo que le pertenece a
Dios: la vida, la creación misma. Será solo eso: una imitación más.
Por eso considero que los proyectos Blue Brain Proyect
y el Human Brain Proyect podrían terminar siendo una especie de “Torre de
Babel moderna”: La creación queriendo crear
y diciéndole al Creador que quiere vivir ajeno a Él. Una muestra más del hombre
queriendo gobernar sobre el cielo, suplantar a Dios, y dejar que sea una
máquina la que tenga el control y nos diga cómo vivir. La humanidad sigue sin
aprender de sus propios errores, sino que los repite y los multiplica.
Ante esto, solo recuerda las consecuencias: cómo acabó
aquella torre y cada intento humano, en la vida diaria y en el conjunto de la
historia, de querer ser su propio dios.
5) Dios es dueño y
señor del Universo, de toda la creación, y nada sucederá sin su permiso. Y
“nada”, por muy inteligente que sea, le sustituirá ni le hará sombra.
Continuará en ¿Te gustaría vivir cientos de años en este
planeta conociendo el futuro de la humanidad?
No hay comentarios:
Publicar un comentario