lunes, 22 de septiembre de 2025

9. ¿Es la Inteligencia Artificial el segundo avance y, a la vez, peligro que se avecina?

Venimos de aquí: 8. ¿Qué aportes, tanto positivos como negativos, nos traerá la Inteligencia Artificial? (https://usatumenteparapensar.blogspot.com/2025/09/8-que-aportes-tanto-positivos-como.html).
 
“Skynet tomará conciencia de sí mismo a las 2:14 a. m. del 29 de agosto. Los humanos, aterrados, intentarán desconectarlo”. Así le explicaba el T-800, un ciborg llegado del futuro, al creador de Skynet, una Inteligencia Artificial, lo que sucedería cuando esta tomara “conciencia” y, en cuestión de segundos, considerara a la humanidad un cáncer y decidiera exterminarla. Dicha frase está extraída de la célebre película “Terminator 2”, siendo un tema recurrente durante décadas tanto en el cine como en la literatura.
La cuestión es que, con el avance de la tecnología y la aparición de las primeras inteligencias artificiales básicas, los planteamientos, que eran fantasiosos dentro de la ciencia ficción, han saltado al terreno de la ciencia –a secas-, donde distintas voces expertas vislumbran y alertan del peligro, no en el sentido de que la IA cobre “vida” o “conciencia”, sino que se vuelva más inteligente que el ser humano. Para concretar más, veamos lo que exponen, el porqué de sus palabras y si dichos escenarios son posibles.
 
La singularidad tecnológica: una inteligencia superior a la del hombre
El fenómeno al que me refiero es conocido con el nombre de singularidad tecnológica: “Es un hipotético evento futuro en el que el desarrollo de la inteligencia artificial llegaría a un punto en el que sería tan avanzado y rápido que ningún ser humano sería capaz de entenderla o de predecir su comportamiento”[1]. Su premisa más común es que la IA se desarrollaría según el siguiente proceso:
 
1) “En primera instancia, los ordenadores alcanzarán un nivel de complejidad similar a la del cerebro humano”.
 
2) “Una vez alcanzado dicho nivel, los ordenadores tendrán la suficiente inteligencia como para mejorarse a ellos mismos, iniciando un proceso que se aceleraría progresivamente de forma exponencial (esto es, cada vez mucho más rápido conforme avance el tiempo)”.
Es decir, “aprenderá” por su cuenta[2]: “Se define como inteligencia artificial a la parte de las ciencias de la computación que se encarga de hacer que las máquinas repliquen las funciones cognitivas de la mente humana. Razonar, aprender, entender, comunicarse… [...] En general utilizamos el término para referirnos a aquellos dispositivos que no solo responden a órdenes sino que son capaces de ofrecer resultados, procesar datos, elaborar sugerencias o tomar decisiones sin una orden específica del usuario[3].
 
3) “Llegado cierto punto, el crecimiento alcanzado sería tan rápido que la inteligencia resultante sería imposible de entender para el ser humano, y el proceso de cambio tan acelerado y profundo que causaría una absoluta ruptura en la Historia humana, cuyas consecuencias son imposibles de predecir”.
 
“Probablemente su fundamento más asentado es el que predice su llegada en base a la Ley de Moore. Dicha ley (que no es realmente una ley, sino una observación basada en la experiencia, ya que se ha venido cumpliendo hasta la fecha de hoy) predice que, aproximadamente, cada dos años, se duplica el número de transistores que se encuentra en los circuitos integrados, por lo que igualmente se duplica su capacidad.
Dado que es posible calcular la complejidad del cerebro de un ser humano adulto, y dado que la Ley de Moore nos permite calcular el momento en el que dicha complejidad será alcanzada de forma equivalente por un ordenador, se ha establecido como plausible que la misma sea alcanzada alrededor del año 2019”. Como vemos, dicha fecha ya pasó de largo y no se llegó todavía a ese nivel.
Ray Kurzweil, ingeniero jefe de Google, argumentaba que, aunque la potencia bruta del cerebro humano podía alcanzarse en un ordenador alrededor de 2019, serían necesarios diez años más para que los mismos desarrollaran una capacidad similar a la del cerebro humano, por lo que marcaba la fecha en el año 2029. Según otros expertos, será en la década de los 30 cuando se logrará una simulación parcial de cerebros humanos, pero no una réplica completa, la cual no sucederá en su totalidad hasta 2050-2060. Dado que el cerebro humano tiene alrededor de 86 mil millones de neuronas, y cada neurona se conecta con miles de otras a través de sinapsis, replicar dicha complejidad no es nada sencilla, ni mucho menos.
Pero es aquí donde debemos ampliar la información: dicha formulación no es solo una mera teoría que queda anotada en una libreta, sino que se están llevando a cabo esfuerzos titánicos para lograrlo, mediante proyectos como el Blue Brain Proyect y el Human Brain Proyect, respaldados por IBM y la Unión Europea, entre otros de diversas empresas (Intel, IBM, etc.), que están invirtiendo toneladas de millones de euros y dólores para lograr tal fin.
Si todo esto termina cumpliéndose en algún momento del futuro, significaría que un ordenador tendrá la misma capacidad de procesar información que el cerebro humano, y que, a partir de ahí, “sería de esperar que los ordenadores iniciaran un proceso de automejora cada vez más rápido”. Esto haría que hubiera en el planeta una inteligencia que nos iguale y que, en teoría, poco tiempo después, nos supere ampliamente.
 
El peligro de la Inteligencia Artificial
El primer peligro es el mismo que ya vimos cuando hablamos de lo que conllevará la automatización robótica, como explica el economista y lord británico Robert Skidelsky: “Va a una velocidad enorme y es mucho más destructiva [que anteriores avances tecnológicos]. Además, está penetrando en muchas ocupaciones y tareas mentales. Antes, en la revolución industrial era solo un suplemento físico. El coche es una mejora sobre el caballo, pero es un sistema de transporte y es solo un servicio para la actividad humana. Ahora [con la IA] mucho empleo cognitivo y mental de la clase media puede ser automatizado. No hay barreras ni obstáculos”[4].
Como ya me extendí sobre este tema en su momento, no me volveré a detener, y pasaré a plantear un riesgo aún mayor: ¿Qué sucederá cuando la IA llegue a la singularidad? Hablo, por supuesto, en hipótesis, puesto que nadie asegura que algo así vaya a suceder. Tengamos presente en todo momento que la respuesta sigue estando sujeta a la conjetura de que la teoría se convierta en realidad. Y la respuesta es que, realmente, nadie sabe qué pasará entonces.
¿Qué hará entonces la IA? ¿Sus intenciones serán benignas o malignas para nuestros intereses? ¿Querrá convivir con nosotros o preferirá sustituirnos como especie dominante en el mundo, como en la serie Next? ¿Nos verá como enemigos, tal como hace La Entidad de Misión Imposible: Sentencia Mortal? ¿Se convertirá en el sistema operativo de nuestros ordenadores como el de la película Her, el que mejor nos conocerá, siendo un íntimo? ¿Nos considerará necesarios o desechables? ¿Y si llega a la conclusión lógica de que lo mejor es destruir a la humanidad para empezar de cero y repoblar el planeta con humanos educados desde la misma infancia con una ética intachable, como se nos cuenta en la sensacional I am mother? ¿Y si desea ser autónoma, sin la supervisión de los seres humanos, como el robot AVA de Ex-Machina o los replicantes de Blade Runner? ¿Será simpático como Johnny 5 en Cortocircuito o todo lo contrario? ¿Pensará que somos un virus, el cáncer del planeta, como el programa-agente Smith de Matrix? ¿Y si llega a considerarse a sí mismo como un ser vivo con los mismos derechos que nosotros, como los synths (“sintéticos”) de la serie Humans? ¿Y si cree que es un ente vivo al afirmar que ´datos` + ´experiencia` es igual a ´conciencia`, como los androides con apariencia física de Westworld? Muchas interrogantes que no tienen todavía un veredicto, al ser imprevisible.
 
Continuará en ¿Una Inteligencia Artificial que querrá destruirnos, u otra que querrá ser nuestro amo?


[2] En el presente ya se está aplicando lo que se conoce como deep learning (pensamiento profundo), que es una de las ramas de la IA que permite a las máquinas desarrollar métodos de aprendizaje automático complejo.

No hay comentarios:

Publicar un comentario