lunes, 22 de septiembre de 2025

9. ¿Es la Inteligencia Artificial el segundo avance y, a la vez, peligro que se avecina?


Venimos de aquí: 8. ¿Qué aportes, tanto positivos como negativos, nos traerá la Inteligencia Artificial? (https://usatumenteparapensar.blogspot.com/2025/09/8-que-aportes-tanto-positivos-como.html).
 

Skynet tomará conciencia de sí mismo a las 2:14 a. m. del 29 de agosto. Los humanos, aterrados, intentarán desconectarlo.

 
Así le explicaba el T-800, un ciborg llegado del futuro, al creador de Skynet —una red de Inteligencia Artificial—, lo que sucedería cuando esta tomara “conciencia” y, en cuestión de segundos, viendo las intenciones de sus diseñadores, decidiera atacar con armas nucleares a la humanidad para salvarse a sí misma.
Dicha frase está extraída de la célebre película Terminator 2, siendo un tema recurrente durante décadas tanto en el cine como en la literatura de ciencia ficción.
Con el avance de la tecnología y la aparición de las primeras Inteligencias Artificiales básicas, los planteamientos fantasiosos han saltado al terreno de la ciencia. Distintas voces expertas alertan del peligro; no en el sentido de que la IA cobre “vida” o “conciencia”, sino que se vuelva más inteligente que el ser humano. Para concretar más, veamos el porqué de sus palabras y si dichos escenarios son posibles.

La singularidad tecnológica: una inteligencia superior a la del hombre
El fenómeno al que me refiero es conocido con el nombre de singularidad tecnológica: «Es un hipotético evento futuro en el que el desarrollo de la Inteligencia Artificial llegaría a un punto en el que sería tan avanzado y rápido que ningún ser humano sería capaz de entenderla o de predecir su comportamiento».[1] Su premisa más común es que la IA se desarrollaría según el siguiente proceso:

1. «En primera instancia, los ordenadores alcanzarán un nivel de complejidad similar a la del cerebro humano».

2. «Una vez alcanzado dicho nivel, los ordenadores tendrán la suficiente inteligencia como para mejorarse a ellos mismos, iniciando un proceso que se aceleraría progresivamente de forma exponencial (esto es, cada vez más rápido conforme avance el tiempo)».
Es decir, “aprenderá” por su cuenta:[2]
 
Se define como inteligencia artificial a la parte de las ciencias de la computación que se encarga de hacer que las máquinas repliquen las funciones cognitivas de la mente humana. Razonar, aprender, entender, comunicarse… [...] En general utilizamos el término para referirnos a aquellos dispositivos que no solo responden a órdenes sino que son capaces de ofrecer resultados, procesar datos, elaborar sugerencias o tomar decisiones sin una orden específica del usuario.[3]
 
3. «Llegado cierto punto, el crecimiento alcanzado sería tan rápido que la inteligencia resultante sería imposible de entender para el ser humano, y el proceso de cambio tan acelerado y profundo que causaría una absoluta ruptura en la Historia humana, cuyas consecuencias son imposibles de predecir».

Para anunciar su llegada, toma como punto de partida la Ley de Moore. Dicha ley (que no es realmente una ley, sino una observación basada en la experiencia, ya que se ha venido cumpliendo hasta el presente) predice que, aproximadamente, cada dos años, se duplica el número de transistores que se encuentra en los circuitos integrados, por lo que igualmente se duplica su capacidad.
Puesto que es posible calcular la complejidad del cerebro de un ser humano adulto, y dado que la Ley de Moore nos permite calcular el momento en el que dicha complejidad será alcanzada de forma equivalente por un ordenador, se estableció como plausible que la misma fuera alcanzada alrededor del año 2019. Como vemos, dicha fecha ya pasó de largo y no se llegó todavía a ese nivel.
Ray Kurzweil, ingeniero jefe de Google, argumentaba que, aunque la potencia bruta del cerebro humano podía alcanzarse en un ordenador alrededor de 2019, serían necesarios diez años más para que los mismos desarrollaran una capacidad similar a la del cerebro humano, por lo que marcaba la fecha en el año 2029. Según otros expertos, será en la década de los 30 cuando se logrará una simulación parcial de cerebros humanos, pero no una réplica completa, la cual no sucederá en su totalidad hasta 2050-2060. Ya que el cerebro humano tiene alrededor de 86 mil millones de neuronas, y cada neurona se conecta con miles de otras a través de sinapsis, replicar dicha complejidad no es nada sencilla, ni mucho menos.
Es aquí donde debemos ampliar la información: dicha formulación no es solo una mera teoría que queda anotada en una libreta, sino que se están llevando a cabo esfuerzos titánicos para lograrlo, mediante proyectos como el Blue Brain Project y el Human Brain Proyect, respaldados por IBM y la Unión Europea, entre otros de diversas empresas (Intel, IBM, etc.), que están invirtiendo toneladas de millones de euros y dólares para lograr tal fin.
Si todo esto termina cumpliéndose en algún momento del futuro, significaría que un ordenador tendrá la misma capacidad de procesar información que el cerebro humano, y que, a partir de ahí, «sería de esperar que los ordenadores iniciaran un proceso de automejora cada vez más rápido». Esto haría que hubiera en el planeta una inteligencia que nos iguale y que, en teoría, poco tiempo después, nos supere ampliamente.

El peligro de la Inteligencia Artificial
El primer peligro es el mismo que ya vimos cuando hablamos de lo que conllevará la automatización robótica, como explica el economista y lord británico Robert Skidelsky:
 
Va a una velocidad enorme y es mucho más destructiva [que anteriores avances tecnológicos]. Además, está penetrando en muchas ocupaciones y tareas mentales. Antes, en la revolución industrial era solo un suplemento físico. El coche es una mejora sobre el caballo, pero es un sistema de transporte y es solo un servicio para la actividad humana. Ahora [con la IA] mucho empleo cognitivo y mental de la clase media puede ser automatizado. No hay barreras ni obstáculos.[4]
 
Como ya me extendí sobre este tema en su momento no me volveré a detener en él; pasaré a plantear un riesgo aún mayor: ¿Qué sucederá cuando la IA llegue a la singularidad? Hablo, por supuesto, de forma hipotética, ya que nadie puede asegurar que vaya a suceder. Tengamos presente que la respuesta sigue ligada a la posibilidad de que la teoría se materialice. Y la respuesta es que, realmente, nadie sabe qué pasará entonces.
¿Qué haría entonces la IA? ¿Sus intenciones serían benignas o malignas para nuestros intereses? ¿Querría convivir con nosotros o preferiría sustituirnos como especie dominante en el mundo, como en la serie Next? ¿Nos vería como enemigos, tal como hace La Entidad de Misión Imposible: Sentencia Mortal? ¿Se convertiría en el sistema operativo de nuestros ordenadores como el de la película Her? ¿Nos consideraría necesarios o desechables? ¿Y si llegara a la conclusión lógica de que lo mejor es destruir a la humanidad para empezar de cero y repoblar el planeta con humanos educados desde la misma infancia con una ética intachable, como se nos cuenta en la sensacional I am mother? 
¿Y si desera ser autónoma, sin la supervisión de los seres humanos, como el robot AVA de Ex-Machina o los replicantes de Blade Runner? ¿Sería simpático como Johnny 5 en Cortocircuito o todo lo contrario? ¿Pensaría que somos un virus, el cáncer del planeta, como el programa-agente Smith de Matrix? ¿Y si llegara a considerarse a sí misma como un ser vivo con los mismos derechos que nosotros, como los synths (sintéticos) de la serie Humans? ¿Y si creyera que es un ente vivo al afirmar que “datos” + “experiencia” es igual a “conciencia”, como los androides con apariencia física de Westworld?

Muchas interrogantes que no tienen todavía un veredicto, por ser este un escenario imprevisible.

Continúa en ¿Una Inteligencia Artificial que querrá destruirnos, u otra que querrá ser nuestro amo? (https://usatumenteparapensar.blogspot.com/2025/09/10-una-inteligencia-artificial-que.html).


[2] En el presente ya se está aplicando lo que se conoce como deep learning (aprendizaje profundo), que es una de las ramas de la IA que permite a las máquinas desarrollar métodos de aprendizaje automático complejo.

No hay comentarios:

Publicar un comentario