Venimos de aquí: 8. ¿Qué aportes, tanto positivos como negativos, nos
traerá la Inteligencia Artificial? (https://usatumenteparapensar.blogspot.com/2025/09/8-que-aportes-tanto-positivos-como.html).
Skynet tomará conciencia de sí mismo a
las 2:14 a. m. del 29 de agosto. Los humanos, aterrados, intentarán
desconectarlo.
Así le explicaba
el T-800, un ciborg llegado del futuro, al creador de Skynet —una red de Inteligencia Artificial—, lo que sucedería
cuando esta tomara “conciencia” y, en cuestión de segundos, viendo las
intenciones de sus diseñadores, decidiera atacar con armas nucleares a la
humanidad para salvarse a sí misma.
Dicha frase está extraída de la célebre
película Terminator 2, siendo un tema
recurrente durante décadas tanto en el cine como en la literatura de ciencia
ficción.
Con el avance de
la tecnología y la aparición de las primeras Inteligencias Artificiales
básicas, los planteamientos fantasiosos han saltado al terreno de la ciencia.
Distintas voces expertas alertan del peligro; no en el sentido de que la IA
cobre “vida” o “conciencia”, sino que se vuelva más inteligente que el ser
humano. Para concretar más, veamos el porqué de sus palabras y si dichos
escenarios son posibles.
La singularidad tecnológica: una inteligencia superior a la del hombre
El fenómeno al que me refiero es conocido con el nombre de singularidad tecnológica: «Es un hipotético evento futuro en el que
el desarrollo de la Inteligencia Artificial llegaría a un punto en el que sería
tan avanzado y rápido que ningún ser humano sería capaz de entenderla o de
predecir su comportamiento».[1] Su premisa más común es que
la IA se desarrollaría según el siguiente proceso:
1. «En primera
instancia, los ordenadores
alcanzarán un nivel de complejidad similar a la del cerebro humano».
2. «Una vez
alcanzado dicho nivel, los ordenadores tendrán la suficiente inteligencia
como para mejorarse a ellos mismos,
iniciando un proceso que se aceleraría progresivamente de forma exponencial
(esto es, cada vez más rápido conforme avance el tiempo)».
Es decir,
“aprenderá” por su cuenta:[2]
Se define como inteligencia artificial
a la parte de las ciencias de la computación que se encarga de hacer que las
máquinas repliquen las funciones cognitivas de la mente humana. Razonar,
aprender, entender, comunicarse… [...] En general utilizamos el término para
referirnos a aquellos dispositivos que no solo responden a órdenes sino que son
capaces de ofrecer resultados, procesar datos, elaborar sugerencias o tomar
decisiones sin una orden específica del
usuario.[3]
3. «Llegado cierto
punto, el crecimiento alcanzado sería tan rápido que la
inteligencia resultante sería imposible de entender para el ser humano,
y el proceso de cambio tan acelerado y profundo que causaría una
absoluta ruptura en la Historia humana, cuyas consecuencias son imposibles de
predecir».
Para anunciar su
llegada, toma como punto de partida la Ley
de Moore. Dicha ley (que no es realmente una ley, sino una observación
basada en la experiencia, ya que se ha venido cumpliendo hasta el presente)
predice que, aproximadamente, cada dos años, se duplica el número de
transistores que se encuentra en los circuitos integrados, por lo que
igualmente se duplica su capacidad.
Puesto que es
posible calcular la complejidad del cerebro de un ser humano adulto, y dado que
la Ley de Moore nos permite calcular el momento en el que dicha complejidad
será alcanzada de forma equivalente por un ordenador, se estableció como
plausible que la misma fuera alcanzada alrededor
del año 2019. Como vemos, dicha fecha ya pasó de largo y no se llegó
todavía a ese nivel.
Ray Kurzweil,
ingeniero jefe de Google, argumentaba que, aunque la potencia bruta del cerebro
humano podía alcanzarse en un ordenador alrededor de 2019, serían necesarios
diez años más para que los mismos desarrollaran una capacidad similar a la del
cerebro humano, por lo que marcaba la fecha en el año 2029. Según otros
expertos, será en la década de los 30 cuando se logrará una simulación parcial
de cerebros humanos, pero no una réplica completa, la cual no sucederá en su
totalidad hasta 2050-2060. Ya que el cerebro humano tiene alrededor de 86 mil
millones de neuronas, y cada neurona se conecta con miles de otras a través de
sinapsis, replicar dicha complejidad no es nada sencilla, ni mucho menos.
Es aquí donde
debemos ampliar la información: dicha formulación no es solo una mera teoría
que queda anotada en una libreta, sino que se están llevando a cabo esfuerzos
titánicos para lograrlo, mediante proyectos como el Blue Brain Project y
el Human Brain Proyect, respaldados por IBM y la Unión Europea, entre
otros de diversas empresas (Intel, IBM, etc.), que están invirtiendo toneladas de millones de euros y dólares
para lograr tal fin.
Si todo esto
termina cumpliéndose en algún momento del futuro, significaría que un ordenador
tendrá la misma capacidad de procesar información que el cerebro humano, y que,
a partir de ahí, «sería de esperar que los ordenadores iniciaran un proceso de
automejora cada vez más rápido». Esto haría que hubiera en el planeta una
inteligencia que nos iguale y que, en teoría, poco tiempo después, nos supere
ampliamente.
El peligro de la Inteligencia
Artificial
El primer
peligro es el mismo que ya vimos cuando hablamos de lo que conllevará la
automatización robótica, como explica el economista y lord británico Robert Skidelsky:
Va a
una velocidad enorme y es mucho más destructiva [que anteriores avances
tecnológicos]. Además, está penetrando en muchas ocupaciones y tareas mentales.
Antes, en la revolución industrial era solo un suplemento físico. El coche es
una mejora sobre el caballo, pero es un sistema de transporte y es solo un
servicio para la actividad humana. Ahora [con la IA] mucho empleo cognitivo y
mental de la clase media puede ser automatizado. No hay barreras ni obstáculos.[4]
Como ya me extendí sobre este tema en su momento no me volveré a detener
en él; pasaré a plantear un riesgo aún mayor: ¿Qué sucederá cuando la IA llegue a la singularidad? Hablo, por supuesto, de forma hipotética, ya que nadie puede asegurar que
vaya a suceder. Tengamos presente que la respuesta sigue ligada a la
posibilidad de que la teoría se materialice. Y la respuesta es que,
realmente, nadie sabe qué pasará entonces.
¿Qué haría
entonces la IA? ¿Sus intenciones serían benignas o malignas para nuestros
intereses? ¿Querría convivir con nosotros o preferiría sustituirnos como especie dominante en el mundo, como en
la serie Next? ¿Nos vería como
enemigos, tal como hace La Entidad de Misión
Imposible: Sentencia Mortal? ¿Se convertiría en el sistema operativo de
nuestros ordenadores como el de la película Her?
¿Nos consideraría necesarios o desechables? ¿Y si llegara a la conclusión
lógica de que lo mejor es destruir a la humanidad para empezar de cero y
repoblar el planeta con humanos educados desde la misma infancia con una ética
intachable, como se nos cuenta en la sensacional I am mother?
¿Y si desera ser autónoma, sin la
supervisión de los seres humanos, como el
robot AVA de Ex-Machina o los
replicantes de Blade Runner? ¿Sería
simpático como Johnny 5 en Cortocircuito o
todo lo contrario? ¿Pensaría que somos un virus, el cáncer del planeta, como el
programa-agente Smith de Matrix? ¿Y
si llegara a considerarse a sí misma como un ser vivo con los mismos derechos
que nosotros, como los synths (sintéticos) de la serie Humans? ¿Y si creyera que es un ente
vivo al afirmar que “datos” + “experiencia” es igual a “conciencia”, como los
androides con apariencia física de Westworld?
Muchas
interrogantes que no tienen todavía un veredicto, por ser este un escenario
imprevisible.
Continúa en ¿Una Inteligencia Artificial que querrá
destruirnos, u otra que querrá ser nuestro amo? (https://usatumenteparapensar.blogspot.com/2025/09/10-una-inteligencia-artificial-que.html).
[1] La información
está extraída de https://robotsia.com/2015/07/08/que-es-la-singularidad-tecnologica/
[2] En el presente ya se está aplicando
lo que se conoce como deep
learning (aprendizaje
profundo), que es una de las ramas de la IA que permite a las máquinas
desarrollar métodos de aprendizaje automático complejo.

No hay comentarios:
Publicar un comentario