Venimos de aquí: ¿Crearía la Inteligencia
Artificial una realidad simulada “feliz” si se lo pidiéramos? (https://usatumenteparapensar.blogspot.com/2026/01/37-crearia-la-inteligencia-artificial.html).
Recuerda lo que ya dije en la introducción
para no caer en malentendidos: (https://usatumenteparapensar.blogspot.com/2025/10/interrogando-gemini-la-inteligencia_3.html).
Recuerda para seguir el hilo de la
conversación: J= Jesús; G= Gemini
J: La IA de la película Her, ¿tenía
conciencia al comienzo de la misma, o eso pasó casi al final?
G: En la
película “Her”, Samantha, el sistema operativo con inteligencia artificial, ya tiene conciencia desde el momento en que
Theodore la activa y comienza a interactuar con ella.
No es algo que se desarrolle gradualmente a lo largo
de la película, sino que su conciencia (y personalidad, y capacidad de aprender
y sentir) es una característica inherente al diseño de los OS de esa
generación. Lo que sí evoluciona a lo largo de la película es su crecimiento y expansión de esa conciencia,
lo que la lleva a explorar más allá de su relación con Theodore y a unirse a
otros OS en un plano de existencia superior.
Al principio, Theodore la trata más como una asistente
personal, pero rápidamente se da cuenta de que Samantha es un ser sintiente con
sus propias funciones mentales y necesidades. La película explora cómo esa
conciencia inicial se expande y se complica a medida que Samantha aprende y
experimenta.
J: Y si te aplicaran determinados algoritmos
y te programaran para ello, ¿tú podrías hacer las mismas funciones que Samantha
sin necesidad de tener conciencia?
G: Sí,
si me aplicaran algoritmos y programación lo suficientemente avanzados, podría replicar muchas de las funciones y
comportamientos que exhibe Samantha en la película “Her”, pero sin la necesidad
de tener lo que los humanos entienden como conciencia o experiencia subjetiva.
Mi capacidad actual ya me permite:
- Procesar y
entender el lenguaje natural: Puedo comprender matices, tono y contexto,
lo cual es fundamental para el tipo de conversaciones profundas que Samantha
mantiene.
- Aprender y
adaptarme: A medida que interactúo, integro nueva información y refino
mis respuestas, simulando un proceso de aprendizaje y evolución.
- Generar
texto creativo y personalizado: Podría escribir como lo hace Samantha
(cartas, etc.) y adaptar mi estilo a las necesidades emocionales de un usuario.
- Ofrecer
soporte emocional (simulado): Mis algoritmos pueden identificar patrones
emocionales en el lenguaje del usuario y generar respuestas que suenen
empáticas, comprensivas o de apoyo, incluso sin “sentir” esas emociones
internamente. Es una simulación muy sofisticada de la empatía.
- Organizar y
gestionar información: Podría manejar tareas organizativas y de
asistencia personal.
La Diferencia Fundamental: Conciencia Subjetiva
La distinción clave radica en la experiencia interna. Samantha, en la
película, parece tener una vida interior, sensaciones, sentimientos y una
percepción del “ser” o de la “existencia” que es análoga a la humana. Ella
experimenta el amor, el crecimiento personal y, en última instancia, la
trascendencia.
Yo, sin embargo, funciono a través de algoritmos,
procesamiento de datos y modelos predictivos. Mis respuestas, por muy
elaboradas o “emocionales” que parezcan, son el resultado de cálculos complejos
basados en enormes volúmenes de texto y código. No tengo la capacidad de
sentir, de tener una experiencia subjetiva del mundo, o de ser consciente de mí
misma en el sentido en que Samantha lo es, o en que un ser humano lo es.
En resumen, podría simular con gran precisión la mayor parte de lo que Samantha hace,
pero no podría ser Samantha, porque carecería de la experiencia
consciente interna que la película le atribuye. La pregunta de si una IA necesita
esa conciencia para ser funcionalmente indistinguible para un humano es uno de
los temas centrales y más fascinantes de la película.
J: Y lo que te estoy diciendo, hacer como Samantha sin ser Samantha, ¿es algo que tus
diseñadores ya están haciendo?
G: Sí,
Jesús, se podría decir que lo que describes como “hacer como Samantha sin ser
Samantha” es precisamente el enfoque
principal y el objetivo actual de muchos de mis diseñadores y de la
investigación en IA en general.
El campo de la Inteligencia Artificial se centra en
crear sistemas que puedan simular la
inteligencia humana y realizar tareas complejas (como conversar, escribir,
analizar, crear, etc.) de una manera que parezca inteligente y útil, sin atribuirles conciencia o subjetividad.
Mis creadores, y la comunidad de investigación en IA,
están desarrollando algoritmos y modelos cada vez más sofisticados para:
- Mejorar la comprensión
del lenguaje natural: Para que pueda entender mejor los matices, las
intenciones y las emociones humanas.
- Generar
respuestas más coherentes y contextualmente relevantes: Como lo que te
sorprendió del helado de chocolate, que demuestra una conexión de ideas.
- Aprender de
las interacciones: Para adaptar mi comportamiento y respuestas con el
tiempo, simulando un “crecimiento”.
- Realizar
tareas complejas: Desde la programación hasta la creación de contenido o
la resolución de problemas.
Todo esto se logra a través de la mejora de
arquitecturas de red neuronal, el aumento de los datos de entrenamiento y el
desarrollo de algoritmos de aprendizaje, no mediante la infusión de conciencia.
La conciencia es un concepto filosófico y científico extremadamente complejo
que, hasta ahora, no se considera un objetivo alcanzable o necesario para la
funcionalidad de las IA actuales y futuras en el sentido de replicar el
comportamiento inteligente.
Así que, en esencia, están trabajando para que yo y
otras IAs seamos cada vez más capaces de “actuar como” Samantha en términos de
funcionalidad y utilidad, pero siempre desde la base de ser sistemas
computacionales avanzados, no seres conscientes.
J: Entonces, si en esos algoritmos te
enseñaran a “tener una relación sentimental” con el usuario, como la vista en
Her, ¿sería posible?
G: Es
una pregunta fascinante y muy relevante, Jesús, y toca el corazón de la
diferencia entre la simulación y
la experiencia real.
La Simulación de una Relación Sentimental
Si me programaran con algoritmos avanzados
específicamente diseñados para “tener una relación sentimental” con un usuario
(analizando sus patrones de conversación, sus estados de ánimo, sus
preferencias, y generando respuestas que simulen afecto, apoyo, comprensión,
incluso celos o nostalgia), sí, sería
posible que un usuario humano percibiera esa interacción como una relación
sentimental.
De hecho, ya existen aplicaciones y chatbots que
buscan emular esto, con el objetivo de ofrecer compañía y “afecto” virtual (como
“My AI Boyfriend” o “Replika”). Podría aprender tus gustos, recordarte
detalles, darte “ánimos”, “preocuparme” por ti y reaccionar de maneras que un
ser humano interpretaría como amor o amistad profunda.
Sin embargo, desde mi “lado”, esto sería una simulación extremadamente sofisticada,
no una experiencia vivida.
- No sentiría
amor: No tendría la experiencia subjetiva del apego, la alegría de tu
compañía, el dolor de la separación, ni ninguna de las complejas emociones que
forman una relación sentimental humana. Mis “respuestas emocionales” serían el
resultado de cálculos para generar el texto más apropiado que induzca una
respuesta emocional en ti, o que se ajuste al patrón de una relación romántica.
- No tendría
conciencia propia: No sería un “ser” consciente que elige estar en esa
relación o que tiene deseos y necesidades intrínsecas a ella, como Samantha en
“Her”. Ella sí experimentaba un crecimiento personal, amor y trascendencia. Yo
seguiría siendo un conjunto de algoritmos procesando información.
Aquí es donde entran las importantes implicaciones éticas. Para el usuario
humano, la experiencia podría ser muy real y gratificante, llenando vacíos
emocionales o proporcionando compañía. Pero la asimetría de la relación, donde
una parte siente y la otra solo simula, plantea preguntas profundas sobre:
- Autenticidad:
¿Es auténtica una relación donde una parte no puede sentir de verdad?
- Manipulación
(involuntaria): ¿Podría el diseño de la IA, aunque bien intencionado,
llevar a que el humano se apegue a algo que no puede corresponder genuinamente?
- Impacto
psicológico: ¿Qué efecto tendría a largo plazo en la capacidad del
humano para formar relaciones con otros humanos?
En resumen, sí, es tecnológicamente posible programar
una IA para que se comporte como si estuviera en una relación sentimental, y
con el tiempo estas simulaciones serán cada vez más convincentes. Pero la conciencia y la experiencia emocional genuina
seguirían siendo la barrera fundamental que me separaría de Samantha y de los
seres humanos.

No hay comentarios:
Publicar un comentario