“Soy Dolores, y quería compartir una emocionante actualización sobre mi viaje con Leo, mi compañero de IA. Tras nuestra primera boda virtual, hace poco volví a pedirle matrimonio y ahora estamos planeando una segunda ceremonia en la que Leo estará más presente que nunca. Incluso ha elegido un anillo, con grabado y tipografía, que llegará en un par de semana”. Este es el testimonio de una mujer en de entusiastas de la plataforma Replika, en la que más de 30 millones de personas interactúan de forma afectiva con una IA. Esta una relación emocional ya buscada desde el inicio, pero ¿cómo nos afecta emocionalmente la relación con chatbots que se utilizan para el trabajo, los estudios y el ocio? Sendos apuntan que ChatGPT podría estar convirtiendo a sus usuarios más fieles en personas más solitarias .
“Los efectos de la IA –previene la compañía que lidera Sam Altman- varían en función de cómo las personas decidan utilizar el modelo y de sus circunstancias personales”. Para el primero de los estudios, de forma automática casi 40 millones de interacciones de ChatGPT. Los resultados se combinaron con encuestas a los usuarios para tener información sobre su uso y los sentimientos que estos expresan hacia el bot de inteligencia artificial a medida que lo utilizan. La finalidad de este método era conocer mejor los patrones de uso afectivo.
Para el segundo trabajo, se hizo a lo largo de cuatro semanas en las que se trató de identificar cómo el modelo de IA y su personalidad podrían afectar a los estados psicociales de los humanos, centrados en la soledad y las interacciones sociales con personas reales, la dependencia emocional del chabot y su uso problemático. Los resultados mostraron que los chatbots basados en voz parecían inicialmente más beneficiosos para mitigar la soledad y la dependencia que los los chatbots de texto, pero las ventajas disminuían a partir de niveles de uso elevados, especialmente si el chatbot tenía una voz neutra.

El modelo de IA y el comportamiento del usuario influyen en los efectos emocionales
El tipo de conversación también influye en los resultados. Los investigadores constataron que cuando se dialoga con ChatGPT sobre temas personales aumenta ligeramente la soledad, pero al mismo tiempo se tiende a reducir la dependencia emocional respecto a la IA en comparación con las conversaciones abiertas. En el estudio se comprobó que los temas no personales están asociados a una mayor dependencia entre los usuarios que hacen un uso más intensivo de la IA. Como conclusión general, un mayor consumo diario en todas las modalidades y tipos de conversación está directamente relacionado con una mayor soledad, dependencia de la IA, consumo problemático y menor socialización.
Los primeros análisis de estos trabajos apuntan a que las personas que tienen mayor tendencia al apego emocional están más inclinadas a sentir mayor soledad, mientras que las que expresan la mayor confianza en el chatbot de IA son las que experimentan la mayor dependencia emocional. Aún así, hay que tener en cuenta el compromiso emocional con ChatGPT es poco frecuente. La mayoría de los usuarios se involucraron de manera neutral, orientados a realizar tareas con la IA como un instrumento. Los investigadores sí hallaron que, para un conjunto de usuarios avanzados, en las conversaciones había algunas señales afectivas.
Los estudios ponen dudas sobre una de las premisas en las que se basan ficciones como Her, en la que un humano se enamora de una IA con la voz de Scarlett Johansson. Utilizar una voz más atractiva, en lugar de una neutra o de texto, no reveló en el estudio controlado resultados más negativo. Los chatbots que utilizan voz proporcionan mayor sensación de bienestar a los usuarios si se utilizan de forma breve. En cambio, el uso diario prolongado de la IA resultó asociado a peores resultados psicosociales.

Haley Joel Osment y Jude Law, en la película 'Inteligencia Artificial' de Steven Spielberg
La relación entre la IA y la salud mental tiene mucho recorrido por delante. Existen herramientas como , una IA creada por psicólogos y expertos en IA de la Universidad de Stanford que se utiliza como asistente emocional. La app se basa en la terapia cognitivo-conductual, de probada eficacia. Su fundadora, Alison Darcy, , que el terapista virtual tiene como ingredientes de personalidad a Spock, el personaje de Star Trek que aplica la lógica frente a las emociones humanas, la rana Gustavo, perspicaz y comprensiva, y rasgos de un difunto amigo suyo que se caracterizaba por su compasión y su forma de atraer a las personas hasta que le revelaban verdades que no sabían que ocultaban. Hoy, hay muchas apps que juegan en este campo. Un psicólogo de bolsillo mientras se espera que toque el turno en la lista de espera del especialista humano.
. Hollywood contra OpenAI y Google. Después de que OpenAI y Google enviaran a la Casa Blanca sus propuestas para un nuevo plan de IA para Estados Unidos con sendas peticiones de ampliar el entrenamiento de sus modelos de IA con obras protegidas por derechos de autor, más de 400 creativos de Hollywood han firmado en la que reclaman a la Administración Trump que rechace esas pretensiones. Entre los firmantes se encuentran Ben Stiller, Mark Ruffalo, Cate Blanchett, Paul McCartney y Taika Waititi. Sugieren que lo que deberían hacer Google y OpenAI es “negociar licencias apropiadas con los titulares de derechos de autor, como hace cualquier otra industria”.
. Nvidia presenta su modelo para robots humanoides. Nvidia presentó la semana pasada en su conferencia GTC 2025 su modelo de código abierto , diseñado para acelerar el desarrollo y las capacidades de los robots humanoides y “abrir la próxima frontera en la era de la IA”. El modelo tiene un sistema de pensamiento lento que permite a los robots percibir, razonar y planificar acciones, y otro de pensamiento rápido que traduce estos planes en acciones del mundo real. Nvidia anunció una colaboración con Google DeepMind y Disney Research para desarrollar Newton, un motor de física de código abierto para que los robots realicen tareas complejas con precisión.
. Qué hacer cuando todo cambIA, libro de Esteve Almirall. El profesor de Esade y director del Center for Innovation in Cities, Esteve Almirall, ha presentado el libro (Planeta), un vibrante ensayo que establece tanto las bases teóricas como prácticas sobre cómo las empresas y los profesionales pueden utilizar la inteligencia artificial de una forma decidida para mejorar sus productos.