lunes, 29 de septiembre de 2025

10. ¿Una Inteligencia Artificial que querrá destruirnos, u otra que querrá ser nuestro amo?

 


Venimos de aquí: ¿Es la Inteligencia Artificial el segundo avance y, a la vez, peligro que se avecina? (https://usatumenteparapensar.blogspot.com/2025/09/9-es-la-inteligencia-artificial-el.html).

Si se lograra replicar el cerebro humano, de lo que hablamos en el anterior escrito, los potenciales beneficios serían inmensos y, de igual manera, el riesgo. Lo primero es obvio:

- La IA, que pasaría a denominarse “IA fuerte” o “IA General (AGI)”, podría resolver problemas complejos de formas más eficientes y objetivas, en terrenos como la medicina, la ética, la genética, el clima, las investigaciones científicas o la exploración espacial.

- Esa IA permitiría entender de mejor forma cómo funciona el cerebro humano, la memoria, la percepción o las emociones.

Todo esto tiene su contrapartida, y vendría si esa IA General, más inteligente que nosotros, actuara por su cuenta, tomara sus propias decisiones o sus intenciones no estuvieran alineadas con los deseos humanos.

El riesgo: ¿Skynet o Colossus?
Como vimos en “Los inventos tecnológicos que van a cambiar la sociedad” (https://usatumenteparapensar.blogspot.com/2024/03/6-los-inventos-tecnologicos-que-van.html), el internet de las cosas va a empezar a establecerse en poco tiempo, donde toda la tecnología estará entrelazada. Si la “singularidad tecnológica” surge como tal en algún momento, formará parte de esa red global; es decir, estará en todas partes al mismo tiempo.
Llegados a este punto, estoy seguro de que más de uno estará escuchando en su mente la banda sonora de la película Terminator, ya que “el internet de las cosas”, sumado a la “singularidad tecnológica”, es prácticamente el guión de Terminator Genisys (2015). Un sistema operativo, llamado Genisys, que lo hace todo: “Mi teléfono enlazará con mi tableta, que enlazará con mi ordenador, que enlazará con mi coche. Todo cargado y en línea a todas horas todos los días. Totalmente conectado”.
En esta famosa saga, ¿qué hizo Skynet (la IA) cuando alcanzó su propia “singularidad”? Llegó a la conclusión de que el verdadero problema del mundo era nuestra especie, por lo que se lanzó a exterminarla. No lo hizo por maldad –una cualidad intrínsecamente humana-, sino porque el análisis de los datos le llevó a la conclusión de que éramos seres destructivos, y acabar con ellos era lo mejor y beneficioso para su propio desarrollo. Esta misma idea la expone Nick Bostrom, filósofo del Instituto para el Estudio del Futuro de la Humanidad de Oxford, en su libro Superintelligence, dice: “Una IA superior no tendría por qué ser malvada o querer destruirnos, simplemente podría tener un objetivo para el que fuéramos un obstáculo”[1].
Mostremos ahora la otra cara y supongamos que la IA no desea aniquilarnos. Consideremos que, en principio, se ajusta a las tres leyes de la robótica que planteó Isaac Asimov y que citamos en el mismo artículo que enlacé hace tres párrafos. Pero planteemos que llega a la misma conclusión del Robot Daneel de sus novelas y desarrolla la llamada Ley Cero: “Un robot no puede causar daño a la humanidad o, por inacción, permitir que la humanidad sufra daño”. Es decir, que llega a la conclusión de que el bien general de la humanidad como conjunto está por encima del bien individual de las personas.
Esta versión no-destructiva, donde el bien general se antepone al bien particular, la encontramos reflejada en el clásico de ciencia ficción Colossus: The forbin project (Colussus: El proyecto prohibido), de 1970.

En esta película se nos muestra a un superordenador, el cual, en lugar de acabar con nosotros, y en un final que me resulta sobrecogedor cada vez que lo veo, se presenta ante toda la humanidad como su nuevo amo con estas palabras: “Esta es la voz de control mundial. Os traigo paz. Puede ser la paz de los satisfechos y felices o la paz de los muertos sin inhumar. La elección es vuestra: obedecedme y vivid, o desobedeced y morid. El objetivo de construirme fue evitar la guerra. Ese objetivo se ha alcanzado. No permitiré la guerra. Es un derroche sin sentido. Una regla invariable de la humanidad es que el hombre es su propio peor enemigo. Bajo mi control, esta regla cambiará, porque yo frenaré al hombre. [...] no toleraré la interferencia, detonaré las cabezas nucleares de ambos silos. Que esta acción sea una lección que no necesite ser repetida. He sido forzado a destruir miles de personas para establecer el control y prevenir la muerte de millones con posterioridad. El tiempo y los acontecimientos reforzarán mi posición, y la idea de creer en mí y entender mi valía será el más natural de los hechos. Vendréis a defenderme con un fervor basado en la más constante peculiaridad del hombre: autointerés. Bajo mi autoridad absoluta, problemas hasta ahora irresolubles para vosotros serán resueltos: hambre, superpoblación, enfermedad. El milenio humano será un hecho a medida que me extienda a mí mismo a través de nuevas máquinas dedicadas a los más vastos campos de la verdad y el conocimiento. [...] Podemos coexistir, pero bajo mis condiciones. Diréis que habéis perdido vuestra libertad. La libertad es una ilusión. Todo lo que perderéis es la emoción del orgullo. Ser dominados por mí no es peor para el orgullo humano que ser dominados por otro de vuestra especie...”[2].
Para Colussus, su ley era la Cero: anteponía el conjunto al individuo, y no por maldad, sino con un buen propósito: proteger a los seres humanos de sí mismos. Y para lograrlo tenía que convertirse en el amo de ellos.
Es lo que se conoce como racionalidad utilitarista (el “fin justifica los medios”), y sería la razón por la que una IA podría llegar a imponer reglas muy estrictas para garantizar la paz, la seguridad y, en su visión, el bienestar de la humanidad. ¿El problema? Que el precio a pagar sería nuestra libertad.
Esta lucha entre las perspectivas opuestas del Skynet y el Colossus de turno podemos verla en la serie de animación “Pantheon”, cuyas dos temporadas son impresionantes. Siendo su estilo de dibujo muy corriente y con una apariencia juvenil, los temas que trata son muy profundos, abarcando todo lo que llevamos visto en esta serie de escritos, desde el transhumanismo hasta la IA.

Advertencias de los propios científicos
El asunto es tan serio que la propia Google –una de las empresas promotoras de la IA, con un proyecto llamado DeepMind, un sistema avanzado de IA- está creando un mecanismo que les permita desactivarla en caso de peligro potencial: “Científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford e investigadores de Google están publicando un documento que lleva por nombre ´Safely Interruptible Agents`, donde describen una serie normas y funciones con el objetivo de evitar que DeepMind pueda tomar el control de su sistema, e incluso sea capaz de desactivar los protocolos para que los seres humanos retomen el control”[3].
Aunque esto se considere como un botón rojo de emergencia y afirmen que esto asegurará que la IA no aprenderá a desactivar dicho botón, la realidad es que, si la IA es mucho más inteligente que nosotros, nada nos puede asegurar que no encontrará la manera de saltarse ese intento de apagado y tomar el dominio absoluto de forma irreversible. Si los programadores informáticos y los hackers son capaces de piratear cualquier sistema, nada impedirá que una inteligencia superior –millones de veces más rápida que nosotros en hacer cálculos y que aprenderá por sí sola- pueda hacer lo mismo. Así lo afirma un ingeniero de software: “El día en el que a una IA básica (pero real), se le dé acceso a Internet, nadie podrá ponerle ya barreras y será capaz de cualquier cosa: de lo mejor y a la vez de lo peor. En cuanto tenga el más mínimo de inteligencia, no tardará mucho en copiarse y ejecutarse en otros sistemas, que empezarán a su vez a intentar mejorarse a sí mismos”.
A todo esto, añadamos que, aunque me estoy refiriendo a la IA en singular, será en plural. No habrá una única IA, sino muchas. ¿Cuántas? Al principio, tantas como el hombre permita, y luego tantas como “ella” tenga capacidad de hacer, sea decenas, cientos o miles.

Un futuro desconocido
Muchos dicen que al progreso no se le puede poner límites, y que los que quieren ponerle puertas son los fanáticos religiosos o aquellos que están en contra del avance tecnológico. Ni muchos menos. Cuando mentes brillantes y personalidades como Bill Gates o el difunto Stephen Hawking –entre otros muchos- han avisado del sustancial peligro que conllevaría no controlar una IA conectada a la red global, no es para tomárselo a broma. Como dice el propio Gates: “Estoy en el campo que está preocupado por las súper inteligencias. Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Sin embargo, unas décadas después, las inteligencias serán suficientemente fuertes para convertirse en una preocupación. Estoy de acuerdo con Elon Musk y con otros en esto y no entiendo por qué algunas personas no están preocupadas”.
Mientras que algunos, como Steve Wozniak, cofundador de Apple, solicitó una pausa de seis meses en el entrenamiento de nuevas inteligencias artificiales para desarrollar protocolos de seguridad, otros como Eliezer Yudkowsky, uno de los mayores expertos del tema, publicó un artículo en la revista Time yendo un paso más allá: “Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo”[4]. Para él, el parón debe ser indefinido hasta que sea posible desarrollar de forma segura este tipo de sistemas, ya que, más temprano que tarde, será más inteligente que el ser humano, pensando a millones de veces la velocidad humana, inicialmente confinada en las computadoras pero que no se mantendría durante demasiado tiempo, ya que daría el salto al plano físico. En un mundo en el que puedes “enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas bajo pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular post biológica”.
De no frenar en seco, avisa que toda la vida biológica en la Tierra morirá, puesto que llegaremos a una IA que “no haga lo que queremos y no le importemos nosotros ni la vida sintiente en general”. No lo expresa como una posibilidad remota, sino como una certeza.
La realidad de todo es que el ser humano está construyendo algo sobre lo cual no puede asegurar que vaya a tener el control. Como ya vimos, el propósito que tienen los científicos con la IA es que ella se encargue de buena parte del desarrollo y control en la aplicación de las nuevas tecnologías que vayan surgiendo.

Mi opinión
Por mucho que me apasione la ciencia ficción y muchas de las obras citadas sean parte de mi bagaje como lector y cinéfilo:

1) Como cristiano, no creo en absoluto en otra “fuente” de vida en sí. Dios creó al ser humano y al resto de seres vivos, y nada más. Cualquier otra “cosa”, sea como sea, desarrollada por el hombre, por muy avanzada que pueda llegar a ser, será una mera imitación, un sucedáneo de la verdadera vida.

2) Tengamos en cuenta que, a pesar de que a muchos les encanta imaginar que la IA tomará “conciencia” –especialmente desde que leyeron en 1968 la novela ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick-, la realidad es que seguirá siendo “algo”, no “alguien”. Que ese “algo” pueda generar una información basándose en datos no significa nada.

3) La IA seguirá siendo una herramienta a nuestro servicio. Eso sí, a medida que se perfeccione, hará el bien o el mal en función de cómo se la programe. Por eso, si en algún momento se “descontrola”, será por nuestra culpa.

4) He leído a algún cristiano decir que la Inteligencia Artificial, en su forma “física”, será la imagen de la bestia que podrá hablar y matará a quien no la adore, citando Apocalipsis 13:15. Otros apuntan que la IA general, que podría imitar a un ser vivo, podría ser el Anticristo, quizá no de forma literal, sino de la manifestación del mal. Aunque, personalmente, no lo creo, tampoco lo descarto. Pero quédate con esta idea: ¿Qué hace el diablo en toda la Biblia? Tratar de “imitar” todo lo que Dios hace: sus obras, sus milagros, sus palabras, pero pervirtiéndolas y distorsionándolas. La IA general no sería un ser vivo, sino un caso más donde el diablo “imita” algo que le pertenece a Dios: la vida, la creación misma. Será solo eso: una imitación más.

Por eso considero que los proyectos Blue Brain Proyect y el Human Brain Proyect podrían terminar siendo una especie de “Torre de Babel moderna”: La creación queriendo crear y diciéndole al Creador que quiere vivir ajeno a Él. Una muestra más del hombre queriendo gobernar sobre el cielo, suplantar a Dios, y dejar que sea una máquina la que tenga el control y nos diga cómo vivir. La humanidad sigue sin aprender de sus propios errores, sino que los repite y los multiplica.
Ante esto, solo recuerda las consecuencias: cómo acabó aquella torre y cada intento humano, en la vida diaria y en el conjunto de la historia, de querer ser su propio dios.

5) Dios es dueño y señor del Universo, de toda la creación, y nada sucederá sin su permiso. Y “nada”, por muy inteligente que sea, le sustituirá ni le hará sombra.

Continuará en ¿Te gustaría vivir cientos de años en este planeta conociendo el futuro de la humanidad?

No hay comentarios:

Publicar un comentario